JP2015149675A - Camera parameter estimation apparatus and camera parameter estimation program - Google Patents
Camera parameter estimation apparatus and camera parameter estimation program Download PDFInfo
- Publication number
- JP2015149675A JP2015149675A JP2014022575A JP2014022575A JP2015149675A JP 2015149675 A JP2015149675 A JP 2015149675A JP 2014022575 A JP2014022575 A JP 2014022575A JP 2014022575 A JP2014022575 A JP 2014022575A JP 2015149675 A JP2015149675 A JP 2015149675A
- Authority
- JP
- Japan
- Prior art keywords
- camera parameter
- camera
- feature point
- unit
- parameter estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
【課題】推定するカメラパラメータの推定精度を向上させることができるカメラパラメータ推定装置を提供する。【解決手段】複数のカメラで撮影された映像から複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置であって、映像から特徴点を検出する特徴点検出部と、検出された特徴点の対応付けを行う特徴点対応付け部と、対応付けられた特徴点からカメラパラメータの推定値を算出するカメラパラメータ推定部と、既に推定されたカメラパラメータの推定値に基づいてカメラパラメータの予測値を算出するカメラパラメータ予測部とを備え、特徴点対応付け部は、カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行う。【選択図】図1A camera parameter estimation apparatus capable of improving the estimation accuracy of camera parameters to be estimated is provided. A camera parameter estimation device for estimating camera parameters of a plurality of cameras from videos taken by a plurality of cameras, a feature point detection unit for detecting feature points from the videos, and correspondence between the detected feature points A feature point associating unit that performs attachment, a camera parameter estimation unit that calculates an estimated value of the camera parameter from the associated feature point, and calculates a predicted value of the camera parameter based on the estimated value of the camera parameter that has already been estimated The feature point associating unit for associating using the restriction on the associating of the feature points derived from the predicted values of the camera parameters. [Selection] Figure 1
Description
本発明は、カメラパラメータを推定するカメラパラメータ推定装置及びカメラパラメータ推定プログラムに関する。 The present invention relates to a camera parameter estimation device and a camera parameter estimation program for estimating camera parameters.
画像や映像から撮影シーンの三次元形状推定、あるいは仮想視点からの画像を合成するといった幾何学的な処理を加えるには、撮影したカメラ(群)の内部パラメータ(焦点距離や画像中心など)や外部パラメータ(カメラ間の位置姿勢)といったカメラパラメータを推定するカメラキャリブレーションの処理が必要である。通常、画像ベースのカメラキャリブレーションは撮影前に専用の機材(チェスパターンなど)を用いて行われるが、この手法は撮影が開始されればカメラは固定であることを想定しており、カメラの焦点距離や位置情報が変化するような動的なカメラを利用する場合にはこの手法は適用が困難である。 To add a geometric process such as estimating the 3D shape of a scene from an image or video, or synthesizing an image from a virtual viewpoint, the internal parameters (focal length, image center, etc.) Camera calibration processing for estimating camera parameters such as external parameters (position and orientation between cameras) is necessary. Normally, image-based camera calibration is performed using dedicated equipment (such as a chess pattern) before shooting, but this method assumes that the camera is fixed once shooting starts. This method is difficult to apply when using a dynamic camera whose focal length or position information changes.
これに対し、専用の機材を用いずに、画像に存在する情報からカメラキャリブレーションを行う手法が提案されている(例えば、非特許文献1参照)。これらの手法は複数台のカメラで撮影された画像(ただし、それぞれの画像は重複領域を持つ)に対して特徴点を検出し、特徴点間の対応をとり、それらを基にカメラキャリブレーションを行う。後者の手法は前者の手法とは異なり、専用の機材を必要としないため様々な撮影映像に適用可能である。ここでは後者のアプローチを自然特徴点ベースキャリブレーションと呼ぶこととする。この自然特徴点ベースキャリブレーションでは、ある画像のペアにおいて少なくとも8組以上の特徴点の対応を必要とし、対応の精度がカメラパラメータの推定精度に大きく影響をおよぼすことが知られている。 On the other hand, a method of performing camera calibration from information existing in an image without using a dedicated device has been proposed (see, for example, Non-Patent Document 1). These methods detect feature points for images taken by multiple cameras (however, each image has an overlapping area), take correspondence between feature points, and perform camera calibration based on them. Do. Unlike the former method, the latter method does not require dedicated equipment, and can be applied to various captured images. Here, the latter approach is called natural feature point based calibration. This natural feature point-based calibration requires correspondence of at least eight or more feature points in a certain image pair, and it is known that the accuracy of correspondence greatly affects the estimation accuracy of camera parameters.
自然特徴点ベースキャリブレーションでは、撮影に用いているカメラ間の位置や姿勢の差が大きくなると、撮影された画像群において特徴点の見えが変わってしまい、本来対応付けられるべきでない特徴点同士が対応付けられる、あるいは対応付けられるべきである特徴点が対応付けられない場合があり、カメラパラメータの推定精度が低下するという問題がある。 In natural feature point-based calibration, when the difference in position and orientation between cameras used for shooting increases, the appearance of feature points in the captured image group changes, and feature points that should not be associated with each other There is a case where feature points that are or should be associated with each other may not be associated with each other, and there is a problem that the estimation accuracy of the camera parameter is lowered.
この問題に対しては、処理対象が映像である場合には特徴点に対して時系列制約を課すことが有効であることが知られている。これはある時刻において求められた特徴点、およびそれらの正しい対応を他の時刻にも引き継ぐことで、特徴点の見えの連続的な変化による精度低下に対応したものである。ここではこのアプローチを画像ベース時系列制約と呼ぶこととする。 For this problem, it is known that imposing time series restrictions on feature points is effective when the processing target is video. This is to cope with a decrease in accuracy due to continuous changes in the appearance of feature points by taking over the feature points obtained at a certain time and their correct correspondence to other times. Here, this approach is referred to as an image-based time series constraint.
しかしながら、この画像ベース時系列制約を用いるためには、ある特徴点と、それに対応する特徴点が他の画像(他のカメラによって撮影された画像)上においても検出され、かつそれらが連続する複数時間に渡り検出され続けなければならない。そのため、カメラの移動や被写体の変化に伴う見えの急激な変化が発生する映像(例えば舞台のように照明変化を伴うコンテンツを手持ちカメラのような映像にブレの入りやすい環境で撮影されたもの)にはこの時系列制約は適用できない場合がある。 However, in order to use this image-based time-series constraint, a certain feature point and a corresponding feature point are detected on another image (an image taken by another camera), and a plurality of them are consecutive. It must continue to be detected over time. For this reason, images with sudden changes in appearance due to camera movements or subject changes (for example, content with lighting changes taken on a stage-like video like a hand-held camera) In some cases, this time series constraint may not be applicable.
本発明は、このような事情に鑑みてなされたもので、推定するカメラパラメータの推定精度を向上させることができるカメラパラメータ推定装置及びカメラパラメータ推定プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a camera parameter estimation device and a camera parameter estimation program capable of improving the estimation accuracy of camera parameters to be estimated.
本発明は、複数のカメラで撮影された映像から前記複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置であって、前記映像から特徴点を検出する特徴点検出部と、検出された前記特徴点の対応付けを行う特徴点対応付け部と、対応付けられた前記特徴点から前記カメラパラメータの推定値を算出するカメラパラメータ推定部と、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値を算出するカメラパラメータ予測部とを備え、前記特徴点対応付け部は、前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行うことを特徴とする。 The present invention is a camera parameter estimation device that estimates camera parameters of a plurality of cameras from videos captured by a plurality of cameras, a feature point detection unit that detects feature points from the videos, and the detected features A feature point associating unit that associates points; a camera parameter estimating unit that calculates an estimated value of the camera parameter from the associated feature points; and a camera based on the estimated value of the camera parameter that has already been estimated. A camera parameter predicting unit that calculates a predicted value of the parameter, and the feature point associating unit performs associating using a restriction on the associating of the feature points derived from the predicted value of the camera parameter And
本発明は、前記カメラパラメータ予測部は、既に推定された前記カメラパラメータの推定値のうち直前のものを前記カメラパラメータの予測値とし、前記特徴点対応付け部において用いる制約は、エピポーラ制約であることを特徴とする。 According to the present invention, the camera parameter prediction unit uses the camera parameter prediction value immediately before the estimated value of the camera parameter as the prediction value of the camera parameter, and the constraint used in the feature point association unit is an epipolar constraint It is characterized by that.
本発明は、前記カメラパラメータ予測部は、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値の確率分布を算出し、前記特徴点対応付け部は、前記確率分布に出現するカメラパラメータの予測値ごとに定まるエピポーラ制約と前記カメラパラメータの予測値に付与されている確率に基づいて特徴点間の対応付けを行うことを特徴とする。 In the present invention, the camera parameter prediction unit calculates a probability distribution of camera parameter prediction values based on the estimated values of the camera parameters already estimated, and the feature point association unit appears in the probability distribution. The feature points are associated with each other based on the epipolar constraint determined for each predicted value of the camera parameter and the probability given to the predicted value of the camera parameter.
本発明は、前記カメラパラメータ予測部が算出する前記確率分布は、既に推定された前記カメラパラメータの推定値に対して直前のものほど大きくなる重みを付与したことを特徴とする。 The present invention is characterized in that the probability distribution calculated by the camera parameter predicting unit is given a weight that becomes larger as it is immediately before the estimated value of the camera parameter.
本発明は、前記カメラの位置及び姿勢の変化を計測するセンサを更に備え、前記カメラパラメータ推定部は、前記カメラパラメータの推定値を前記対応付けられた特徴点から算出できない場合に、過去に算出したカメラパラメータの推定値と前記センサにより計測されるカメラの位置及び姿勢の変化の度合いに基づいて前記カメラパラメータの推定値を算出することを特徴とする。 The present invention further includes a sensor for measuring a change in the position and orientation of the camera, and the camera parameter estimation unit calculates in the past when the estimated value of the camera parameter cannot be calculated from the associated feature point. The estimated value of the camera parameter is calculated based on the estimated value of the camera parameter and the degree of change in the position and orientation of the camera measured by the sensor.
本発明は、コンピュータを、前記カメラパラメータ推定装置として機能させるためのカメラパラメータ推定プログラムである。 The present invention is a camera parameter estimation program for causing a computer to function as the camera parameter estimation device.
本発明によれば、推定するカメラパラメータの推定精度を向上させることができるという効果が得られる。 According to the present invention, it is possible to improve the estimation accuracy of camera parameters to be estimated.
<第1実施形態>
以下、図面を参照して、本発明の第1実施形態によるカメラパラメータ推定装置を説明する。以下で説明する実施形態では、自然特徴点ベースキャリブレーションにおいて、時系列制約を設けることによる精度向上を目指す上で、画像ベース時系列制約のように特徴点検出及び対応付けの連続性に着目した制約を設けるのではなく、推定されたカメラパラメータの連続性に着目した制約を特徴点の対応付けに設ける。まず、ある時刻tに推定されたカメラパラメータと、時刻tまでに推定されていたカメラパラメータから次時刻(t+1)におけるカメラパラメータの値(の範囲)を予測する。時刻(t+1)ではその予測された値を用いて特徴点対応に対して制約を課し、その制約の元で改めて時刻(t+1)のカメラパラメータを推定する。この手順を繰り返すことが本実施形態の概要である。本実施形態ではこのアプローチをカメラパラメータベース時系列制約と呼ぶ。
<First Embodiment>
Hereinafter, a camera parameter estimation apparatus according to a first embodiment of the present invention will be described with reference to the drawings. In the embodiment described below, in aiming to improve accuracy by providing time series constraints in natural feature point based calibration, attention is paid to the continuity of feature point detection and association like image based time series constraints. Rather than providing a constraint, a constraint focusing on the continuity of the estimated camera parameters is provided in the feature point association. First, the value (range) of the camera parameter at the next time (t + 1) is predicted from the camera parameter estimated at a certain time t and the camera parameter estimated until the time t. At time (t + 1), a restriction is imposed on the feature point correspondence using the predicted value, and the camera parameter at time (t + 1) is estimated again under the restriction. It is an outline of this embodiment to repeat this procedure. In this embodiment, this approach is referred to as camera parameter-based time series constraint.
ここで、以下に示す表記について定義する。
Ii(t):時刻tにカメラiによって撮影された画像。なお、本実施形態において各カメラは同期がとれているものとする。
Ri(t):時刻tにおいて、カメラiの世界座標系における姿勢を表す回転行列。
Rii’(t):時刻tにおいて、カメラiとカメラi’の姿勢の差分を表す回転行列。これはRi(t),Ri’(t),Ti(t),Ti’(t)から求められる。
Ti(t):時刻tにおいて、カメラiの世界座標系における位置を表す並進ベクトル。
Tii’(t):時刻tにおいて、カメラiとカメラi’の位置の差分を表す並進ベクトル。これはRi(t),Ri’(t),Ti(t),Ti’(t)から求められる。
Ki(t):時刻tにおいて、カメラiの焦点距離および画像中心を表す行列。
Pi(t):時刻tにカメラパラメータ推定部が出力するカメラiのカメラパラメータ(Ri(t),Ti(t),Ki(t)をまとめたもの)。
P’i(t+1):時刻tにカメラパラメータ予測部が出力する時刻(t+1)のカメラiのカメラパラメータの予測値。
fi j(t):Ii(t)上のj番目の特徴点の特徴量ベクトル。
xi j(t):fi j(t)の画像平面上における座標値ベクトル。
fi(t):Ii(t)上の特徴点の特徴量ベクトルの集合。
xi(t):Ii(t)上の特徴点の座標値ベクトルの集合。
Mii’(t):fi(t),fi’(t)の対応付け結果。
Ei(t):カメラiに付属した外部センサ(ジャイロセンサ、GPSなど)の出力する値。
Here, the following notation is defined.
I i (t): an image taken by camera i at time t. In the present embodiment, the cameras are assumed to be synchronized.
R i (t): A rotation matrix representing the attitude of the camera i in the world coordinate system at time t.
R ii ′ (t): A rotation matrix representing the difference in posture between camera i and camera i ′ at time t. This is obtained from R i (t), R i ′ (t), T i (t), T i ′ (t).
T i (t): A translation vector representing the position of camera i in the world coordinate system at time t.
T ii ′ (t): A translation vector representing the difference between the positions of camera i and camera i ′ at time t. This is obtained from R i (t), R i ′ (t), T i (t), T i ′ (t).
K i (t): A matrix representing the focal length and the image center of the camera i at time t.
P i (t): Camera parameters of camera i output by the camera parameter estimation unit at time t (summarized R i (t), T i (t), K i (t)).
P ′ i (t + 1): The predicted value of the camera parameter of camera i at time (t + 1) output by the camera parameter prediction unit at time t.
f i j (t): feature quantity vector of the j-th feature point on I i (t).
x i j (t): A coordinate value vector on the image plane of f i j (t).
f i (t): A set of feature quantity vectors of feature points on I i (t).
x i (t): A set of coordinate value vectors of feature points on I i (t).
M ii ′ (t): Matching result of f i (t), f i ′ (t).
E i (t): A value output from an external sensor (gyro sensor, GPS, etc.) attached to the camera i.
図1は同実施形態によるカメラパラメータ推定装置の構成を示すブロック図である。この図において、符号1は、多視点映像を外部から入力する多視点映像入力部である。符号2は、入力した多視点映像から特徴点を検出する特徴点検出部である。符号3は、検出した特徴点の対応付けを行う特徴点対応付け部である。符号4は、対応付けされた特徴点からカメラパラメータを推定するカメラパラメータ推定部である。符号5は、所定時刻のカメラパラメータを予測するカメラパラメータ予測部である。符号6は、推定したカメラパラメータを出力するカメラパラメータ出力部である。自然特徴点ベースキャリブレーションは通常、特徴点検出部、特徴点対応付け部、カメラパラメータ推定部で構成されているが、それにカメラパラメータ予測部を加え、予測されたカメラパラメータを特徴点対応付け部に制約として用いるところが従来の自然特徴点ベースキャリブレーションとは異なる点である。
FIG. 1 is a block diagram showing the configuration of the camera parameter estimation apparatus according to the embodiment. In this figure,
次に、図1を参照して、図1に示すカメラパラメータ推定装置の動作を説明する。まず、多視点映像入力部1は、画像列Ii(t)(i=0…n;nはカメラの台数)を入力する。次に、特徴点検出部2は、画像Ii(t)に対して特徴点検出を行い、fi(t)を求める。
Next, the operation of the camera parameter estimation apparatus shown in FIG. 1 will be described with reference to FIG. First, the multi-view
次に、特徴点対応付け部3は、if t=0であれば、各カメラのペア(i,i’)に対して、特徴点群fi(t),fi’(t)に対して特徴点対応を行い、Mii’(t)を求める。一方、if t>0であれば、特徴点群fi(t),fi’(t)に対してカメラパラメータ予測値P’i(t),P’i’(t)を用いて制約を課して対応を求める。これにより、Mii’(t)が求められたことになる。
Next, if if t = 0, the feature
次に、カメラパラメータ推定部4は、全てのMii’(t)を用いてカメラパラメータPi(t)を推定する。カメラパラメータ出力部6は、ここで推定した値を各時刻におけるカメラパラメータPi(t)として出力する。推定できない場合は、カメラパラメータPi(t)を出力しない。さらに、次時刻の処理を行う場合にはt=0に戻す。
Next, the camera
次に、カメラパラメータ予測部5は、Pi(t’)(t’≦t)の値からP’i(t+1)を予測する。そして、特徴点対応付け部3の処理に移行する。
Next, the camera
次に、図1に示す特徴点検出部2、特徴点対応付け部3、カメラパラメータ推定部4、カメラパラメータ予測部5の詳細な処理動作を説明する。始めに、特徴点検出部2について説明する。特徴点検出部2は、入力した映像から特徴点を検出する。特徴点検出部2の入力は、画像Ii(t),(i=0,1,t≧0)である。また、出力は、特徴点の特徴量ベクトルの集合fi(t)である。特徴点検出部2は、入力された画像Ii(t)から、特徴点検出器(Harris,SIFTなど)を用いて特徴点を検出し、各特徴点の特徴量ベクトルfij(t)の集合としてfi(t)を出力する。
Next, detailed processing operations of the feature
次に、特徴点対応付け部3について説明する。特徴点対応付け部3は、各画像における特徴量ベクトルの集合に関し、対応付けを行う。特徴点対応付け部3の入力は、特徴量ベクトルの集合fi(t)(i=0,1,t≧0),カメラパラメータ予測値P’i(t)である。また、出力は、対応付けベクトルMii’(t)(i’=0,1,i≠i’)である。特徴点対応付け部3は、t=0の時、与えられた特徴量ベクトルの集合fi(t),fi’(t)において、画像iの各特徴点fij(t)が、画像i’のどの特徴点に対応しているかを計算し、その対応の結果をMii’(t)として出力する。t>0の時は、入力として与えられるカメラパラメータ予測値P’i(t)を用いて対応付けに制約を設けた上で上記の処理を行い、対応の結果をMii’(t)として出力する。
Next, the feature
次に、カメラパラメータ推定部4について説明する。カメラパラメータ推定部4は、撮影に用いられたカメラのカメラパラメータを推定する。カメラパラメータ推定部4の入力は、特徴点座標xi(t),対応付けベクトルMii’(t)(i,i’=0,1,i≠i’,t≧0)である。また、出力は、カメラパラメータPi(t)である。カメラパラメータ推定部4は、入力として与えられた特徴点の座標ベクトルxi(t)と、対応付けベクトルMii’(t)からそれぞれの画像の撮影に用いられたカメラのカメラパラメータPi(t)を推定する。ただし、特徴点の対応の数が少なくとも8組必要である。
Next, the camera
次に、カメラパラメータ予測部5について説明する。カメラパラメータ予測部5は、時刻(t+1)におけるカメラパラメータを予測する。カメラパラメータ予測部5の入力は、カメラパラメータPi(t’)(i=0,1,0≦t’≦t)である、また、出力は、カメラパラメータ予測値P’i(t+1)である。カメラパラメータ予測部5は、時刻tまでに推定されたカメラパラメータPi(t’)を用いて時刻(t+1)におけるカメラパラメータの値(及び範囲)の予測値P’i(t+1)を出力する。
Next, the camera
前述した処理動作は、以下の様な手法を適用することで実施が可能である。なお、本実施形態は、従来の自然特徴点ベースキャリブレーションの手順に対してカメラパラメータ予測部5の処理を加え、それを用いて特徴点対応付け部3に制約を課すものである。そのため、ここでは最初に自然特徴点ベースキャリブレーションの各手順において一般的な手法について説明し、その後のカメラパラメータ予測部5及び特徴点対応付け部3の制約の与え方に関して説明する。
The processing operation described above can be implemented by applying the following method. In the present embodiment, the process of the camera
まず、自然特徴点ベースキャリブレーションの各部位においてどのような手法を用いるかについて説明する。特徴点検出部2としては、SIFT特徴量(例えば、文献1「David G. Lowe,"Distinctive image features from scale- invariant keypoints",International Journal of Computer Vision,60, 2, 2004, pp.91-110」参照)を適用可能である。画像上の各特徴点はSIFTを用いて検出し、その画像上での位置、向き、および特徴量を出力する。特徴量の算出方法の詳細は上記文献1に記載されている公知の方法であるため、ここでは詳細な説明を省略する。
First, what kind of method is used in each part of the natural feature point based calibration will be described. As the feature
次に、特徴点対応付け部3としては、SIFT Matching(例えば、文献1「David G. Lowe,"Distinctive image features from scale- invariant keypoints",International Journal of Computer Vision,60, 2, 2004, pp.91-110」参照)を適用可能である。画像Ii(t)における各特徴点のSIFT特徴量ベクトルfij(t)に対し、画像Ii’(t)上の対応する特徴点を求める。なお、ある特徴点のペアが対応しているか否かは、それぞれの特徴量の各次元の差分のノルムを計算して定める。詳細な求め方は上記文献1に記載されている公知の方法であるため、ここでは詳細な説明を省略する。
Next, as the feature
次に、カメラパラメータ推定部4としては、Structure from Motion(例えば、文献2「Richard Hartley and Andrew Zisserman,"Multiple View Geometry in Computer Vision",Cambridge University Press, March 2004, pp. 262-278」参照)やBundle Adjustment(例えば、文献3「Bill Triggs, Phillip F. McKauchian, Richard Hartley, Andrew W. Fitzgibbon,"Bundle Adjustment - A Modern Synthesis",Vision Algorithm: Theory and Practice, 2000, pp.298-372」参照)を適用可能である。特徴点の座標ベクトルxi(t)と対応付けベクトルMii’(t)から各カメラ間に成り立つ基礎行列を求め、それを分解することで内部パラメータ及び外部パラメータを求める(Structure from Motion)。さらに、求められたカメラパラメータの精度を高めるために、パラメータに対し、特徴点の再投影誤差を最小化する非線形最適化を行う(Bundle Adjustment)。なお、この処理は省略することも可能である。
Next, as the
次に、本実施形態の特徴であるカメラパラメータ予測部5と特徴点対応付け部3について説明する。カメラパラメータ予測部5は、時刻tにおけるカメラパラメータの推定値を時刻(t+1)におけるカメラパラメータの予測値として利用し、特徴点対応付け部3における制約として、エピポーラ制約を用いる場合について説明する。なお、ここでは簡単のため2視点の映像を処理するものとする。
Next, the camera
カメラパラメータ予測部5は、以下の式で時刻(t+1)の値を定める。
P’i(t+1)=Pi(t)(i=0,1,t≧0)
The camera
P ′ i (t + 1) = P i (t) (i = 0, 1, t ≧ 0)
次に、特徴点対応付け部3は、t=0の時、前述した自然特徴点ベースキャリブレーションと同様の処理を行う。一方、t>0の時、カメラパラメータ予測部5が予測したカメラパラメータP’0(t),P’1(t)を用いて基礎行列を計算する。基礎行列Fii’(i,i’=0,1,i≠i’)は以下のように計算する。
Fii’=Ki’ −T[Tii’× Rii’]Ki −1
Next, the feature
F ii ′ = K i ′ −T [T ii ′ × R ii ′ ] K i −1
ある三次元空間中の点を画像I0(t),I1(t)上に投影した時、それらの座標値をそれぞれxi(t),xi’(t)とすると、基礎行列Fii’を用いて以下のエピポーラ制約が成り立つことが知られている。
xi(t)Fii’(t)xi’(t)=0 ・・・(1)
When a point in a certain three-dimensional space is projected onto the images I 0 (t) and I 1 (t), if the coordinate values are x i (t) and x i ′ (t), the basic matrix F It is known that the following epipolar constraint is satisfied using ii ′ .
x i (t) F ii ′ (t) x i ′ (t) = 0 (1)
このとき、画像Ii(t)の各特徴点の特徴量ベクトルfij(t)に対し、それらの画像平面上における座標値をxi(t)として(1)式に代入することで、xi’(t)の存在する範囲、すなわちfij(t)に対応する画像Ii’(t)上の特徴点の座標が存在する範囲を画像Ii’(t)の直線(エピ線)上に限定することができる。適切な対応が存在する領域を画像全体から直線にまで限定することで、本来対応付けられるべき特徴点よりも、たまたま特徴量の距離が近いために対応付けられるようなケースを減少させることが期待できる。なお、同一の特徴点を観測できる視点の数が増えれば、適用できる制約も増加する(例えば3視点ならばtrifocal tensor)。これら視点の数に応じた制約に関しては文献4「佐藤淳,“テンソルと多視点幾何”,情報処理学会研究報告CVIM,2007,pp:33−42」が詳しい。
At this time, for the feature quantity vector f ij (t) of each feature point of the image I i (t), by substituting the coordinate value on the image plane as x i (t) into the equation (1), A range in which x i ′ (t) exists, that is, a range in which the coordinates of feature points on image I i ′ (t) corresponding to f ij (t) exist is defined as a straight line (epiline) of image I i ′ (t). ) Can be limited to above. By limiting the area where appropriate correspondence exists from the whole image to a straight line, it is expected to reduce the number of cases that can be matched because the distance of the feature amount happens to be closer than the feature points that should be matched. it can. As the number of viewpoints that can observe the same feature point increases, the applicable restrictions also increase (for example, triaxial tenor for three viewpoints).
以上から、具体的な対応を求める手順としては次のようになる。まず、画像Ii(t)の各特徴点の座標xij(t)に対し、(1)式を満たす画像Ii’(t)の特徴点を候補として挙げる。なお、実際にはピクセルノイズなどの影響で必ずしも(1)式の値が0になるとは限らないので、xij(t)Fii’(t)とxi’j(t)の画像上の距離が閾値以下のものを挙げる。ここで候補として挙げられた特徴点群に対してt=0の場合と同様の方法で対応をつける。これにより、カメラパラメータ予測値を制約として加えた特徴点対応が実現できる。 From the above, the procedure for obtaining a specific response is as follows. First, with respect to the coordinates x ij of each feature point in the image I i (t) (t), given as a candidate feature points (1) image I i 'satisfying the equation (t). Actually, the value of the expression (1) is not always 0 due to the influence of pixel noise or the like, so that x ij (t) F ii ′ (t) and x i′j (t) on the image List distances below threshold. The feature point group listed here as a candidate is associated with the same method as in the case of t = 0. Thereby, the feature point correspondence which added the camera parameter prediction value as a restriction | limiting is realizable.
次に、図2を参照して、第1実施形態おけるカメラパラメータ推定装置(図1)の全体の処理動作を説明する。図2は、図1に示すカメラパラメータ推定装置の処理動作を示すフローチャートである。まず、多視点映像入力部1は、撮影された多視点映像を入力として与える(ステップS1)。これを受けて、特徴点検出部2は、多視点映像に対してSIFT特徴量を検出する(ステップS2)。
Next, the overall processing operation of the camera parameter estimation apparatus (FIG. 1) in the first embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the processing operation of the camera parameter estimation apparatus shown in FIG. First, the multi-view
次に、特徴点対応付け部3は、時刻=0であるかを判定し(ステップS3)、時刻=0であれば、画像上の全ての特徴点を対応の候補とする(ステップS4)。そして、特徴点対応付け部3は、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。
Next, the feature
一方、時刻=0でなければ、特徴点対応付け部3は、予測されたカメラパラメータから基礎行列を計算する(ステップS6)。そして、特徴点対応付け部3は、各特徴点に対してエピ線を計算し、エピ線上に存在する特徴点を対応の候補とし(ステップS7)、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。ステップS3〜S7の処理は、全てのカメラペアに対して適用する。
On the other hand, if time = 0, the feature
次に、カメラパラメータ推定部4は、特徴点の対応からカメラパラメータを推定する(ステップS8)。続いて、カメラパラメータ予測部5は、推定されたカメラパラメータを次の時刻のカメラパラメータ予測値とする(ステップS9)。
Next, the camera
このように、第1実施形態はカメラのフレームレートが高く、カメラがほぼ動いていない場合に最も有効に働くことが期待される。 As described above, the first embodiment is expected to work most effectively when the frame rate of the camera is high and the camera is hardly moving.
<第2実施形態>
次に、本発明の第2実施形態によるカメラパラメータ推定装置を説明する。第2実施形態によるカメラパラメータ推定装置の構成は、図1に示す構成と同様であるので、ここでは詳細な説明を省略する。本実施形態はカメラパラメータ予測部5においてランダムに次時刻の範囲を予測する場合について説明する。また、本実施形態では簡単のため2視点からの映像を処理するものとする。
Second Embodiment
Next, a camera parameter estimation device according to a second embodiment of the present invention will be described. Since the configuration of the camera parameter estimation apparatus according to the second embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here. This embodiment demonstrates the case where the camera
本実施形態では第1実施形態のようにカメラパラメータ予測部5によるカメラパラメータ予測値を一意に定めるのではなく、カメラパラメータ推定部4によるカメラパラメータ推定値から次時刻に変動すると推定される範囲を定め、その範囲において求められたカメラパラメータをカメラパラメータ予測値として用いて、特徴点対応付け部3において利用する。例えば、回転行列Rii’(t)は3変数(x軸、y軸、z軸ごとの回転角度)で表現され、それぞれをθk(t)(k=x,y,z)とし、それぞれが±rkの範囲で動くとすると、予測値θ’k(t+1)は以下のように表される。
θ’k(t+1)=θk(t)+Δθk(t),(k=x,y,z) ・・・(2)
|Δθk(t)|<rk
In this embodiment, the camera parameter prediction value by the camera
θ ′ k (t + 1) = θ k (t) + Δθ k (t), (k = x, y, z) (2)
| Δθ k (t) | <r k
今回考慮するパラメータは各カメラ間の回転行列に関する3変数、並進ベクトルに関する2変数、焦点距離に関する1変数の計6変数が考えられる。ただし、並進ベクトルのスケールを新たに変数として考慮してもよい。なお、並進ベクトルのノルムは1になるため、並進ベクトルでは、3変数でなく、2変数となる。 The parameters to be considered this time are considered to be a total of six variables: three variables related to the rotation matrix between the cameras, two variables related to the translation vector, and one variable related to the focal length. However, the scale of the translation vector may be newly considered as a variable. Since the norm of the translation vector is 1, the translation vector has two variables instead of three.
本実施形態を実装する際には、定めた範囲に対していくつかの段階に分けて全ての組み合わせについて計算してもよいが、範囲と分ける段階によっては計算量が膨大になる可能性がある。そのため、候補の数を予め指定しておき、定めた範囲内の値を適当な分布に従いランダムに値を出力させるようにしてもよい。 When this embodiment is implemented, the calculation may be performed for all combinations by dividing the predetermined range into several stages. However, depending on the stage divided from the range, the calculation amount may be enormous. . For this reason, the number of candidates may be specified in advance, and values within a predetermined range may be randomly output according to an appropriate distribution.
以下、具体的に説明する。まず、カメラパラメータP(t)は回転行列の3変数、並進ベクトルの2変数、及び焦点距離の1変数からなるとし、それらをpi(t)(i=0,…,5)とする。各変数がそれぞれ±riの範囲で動くとすると、予測値p’i(t+1)は以下のように表される。
p’i(t+1)=pi(t)+Δpi(t),(i=0,…,5)
|Δpi(t)|<ri
This will be specifically described below. First, it is assumed that the camera parameter P (t) is composed of three variables of a rotation matrix, two variables of a translation vector, and one variable of a focal length, and these are p i (t) (i = 0,..., 5). As each variable is to move in ranges of ± r i, the predicted value p 'i (t + 1) is expressed as follows.
p ′ i (t + 1) = p i (t) + Δp i (t), (i = 0,..., 5)
| Δp i (t) | <r i
この時、定めた範囲±riをsi段階に分けるとすると、j番目の候補p’ji(t+1)に対する更新値Δpji(t)は以下のように表される。
Δpji(t)=j×(2×ri/si),(j=0…(si−1))
At this time, when dividing the range ± r i as defined in s i stages, updated values Delta] p ji for j th candidate p 'ji (t + 1) (t) are expressed as follows.
Δp ji (t) = j × (2 × r i / s i ), (j = 0... (S i −1))
この時、各変数についてそれぞれ更新値がsi個得られるため、P’(t+1)の候補の数はs0×s1×s2×s3×s4×s5個存在する。つまり、先に述べたように計算量が膨大になる可能性がある。そこで、以下のようにランダムに与える方法もある。
P’(t+1)の候補の数を予めcpとする。l番目の候補P’l(t+1)に対する各変数p’l i(t+1)の更新値Δpl i(t)は|Δpi(t)|<riを満たすランダムな値が与えられる。
At this time, since s i updated values are obtained for each variable, there are s 0 × s 1 × s 2 × s 3 × s 4 × s 5 candidates for P ′ (t + 1). In other words, as described above, the calculation amount may be enormous. Therefore, there is a method of giving randomly as follows.
Let c p be the number of candidates for P ′ (t + 1) in advance. The updated value Δp l i (t) of each variable p ′ l i (t + 1) for the l-th candidate P ′ l (t + 1) is given a random value satisfying | Δp i (t) | <r i .
次に、図3を参照して、第2実施形態おけるカメラパラメータ推定装置の全体の処理動作を説明する。図3は、第2実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。図3において、図2に示す処理動作を同じ処理動作には、同じ符号を付与してある。まず、多視点映像入力部1は、撮影された多視点映像を入力として与える(ステップS1)。これを受けて、特徴点検出部2は、多視点映像に対してSIFT特徴量を検出する(ステップS2)。
Next, the overall processing operation of the camera parameter estimation apparatus in the second embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the camera parameter estimation apparatus in the second embodiment. In FIG. 3, the same reference numerals are given to the same processing operations as the processing operations shown in FIG. First, the multi-view
次に、特徴点対応付け部3は、時刻=0であるかを判定し(ステップS3)、時刻=0であれば、画像上の全ての特徴点を対応の候補とする(ステップS4)。そして、特徴点対応付け部3は、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。
Next, the feature
一方、時刻=0でなければ、特徴点対応付け部3は、予測されたカメラパラメータから基礎行列を計算する(ステップS6)。そして、特徴点対応付け部3は、各特徴点に対してエピ線を計算し、エピ線上に存在する特徴点を対応の候補とし(ステップS7)、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。ステップS3〜S7の処理は、全てのカメラペアに対して適用する。
On the other hand, if time = 0, the feature
次に、カメラパラメータ推定部4は、特徴点の対応からカメラパラメータを推定する(ステップS8)。カメラパラメータ推定部4は、推定されたカメラパラメータのそれぞれにランダム値を与えて更新する(ステップS10)。そして、カメラパラメータ予測部5は、更新された値を次時刻のカメラパラメータ予測値とする(ステップS11)。
Next, the camera
このように、第2実施形態はカメラの1時刻間に動く大きさがある程度わかっている場合に有効に働くことが期待される。 In this way, the second embodiment is expected to work effectively when the magnitude of movement of the camera in one time is known to some extent.
<第3実施形態>
次に、本発明の第3実施形態によるカメラパラメータ推定装置を説明する。第3実施形態によるカメラパラメータ推定装置の構成は、図1に示す構成と同様であるので、ここでは詳細な説明を省略する。本実施形態は、カメラパラメータ予測部5において、時刻t’(<t)までのカメラパラメータ推定値を基に次時刻のカメラパラメータの値(カメラパラメータ予測値)の確率分布を算出し、特徴点対応付け部3において、その確率分布を特徴点の対応付けに反映させる場合について説明する。なお、本実施形態ではベイジアンフィルタの考え方(特にパーティクルフィルタ)を例に用いてカメラパラメータ予測値の確率分布を算出する。また、本実施形態では簡単のため2視点からの映像を処理するものとする。
<Third Embodiment>
Next, a camera parameter estimation device according to a third embodiment of the present invention will be described. Since the configuration of the camera parameter estimation apparatus according to the third embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here. In the present embodiment, the camera
次に、図4を参照して、第3実施形態おけるカメラパラメータ推定装置の全体の処理動作を説明する。図4は、第3実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。図4において、図2に示す処理動作を同じ処理動作には、同じ符号を付与してある。まず、多視点映像入力部1は、撮影された多視点映像を入力として与える(ステップS1)。これを受けて、特徴点検出部2は、多視点映像に対してSIFT特徴量を検出する(ステップS2)。
Next, an overall processing operation of the camera parameter estimation apparatus according to the third embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing the processing operation of the camera parameter estimation apparatus in the third embodiment. In FIG. 4, the same reference numerals are given to the same processing operations as the processing operations shown in FIG. First, the multi-view
次に、特徴点対応付け部3は、時刻=0であるかを判定し(ステップS3)、時刻=0であれば、画像上の全ての特徴点を対応の候補とする(ステップS4)。そして、特徴点対応付け部3は、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。
Next, the feature
一方、時刻=0でなければ、特徴点対応付け部3は、予測されたカメラパラメータの尤度を計算する(ステップS12)。続いて、特徴点対応付け部3は、尤度付きカメラパラメータから基礎行列を計算する(ステップS13)。そして、特徴点対応付け部3は、各特徴点に対して尤度付きエピ線を計算し、エピ線上に存在する特徴点を対応の候補とし(ステップS14)、各特徴点をそれぞれの候補の中から尤度を考慮して対応づける(ステップS15)。ステップS3〜S5、S12〜S15の処理は、全てのカメラペアに対して適用する。
On the other hand, if not time = 0, the feature
次に、カメラパラメータ推定部4は、特徴点の対応からカメラパラメータを推定する(ステップS8)。そして、カメラパラメータ予測部5は、次時刻のカメラパラメータを予測する(ステップS16)。
Next, the camera
図4に示す処理動作では、時刻tのカメラパラメータの候補に対して尤度を計算するためには、時刻tの入力画像に対するSIFT特徴量が必要であるため、ステップS2において尤度計算を行っているが、ステップS16の予測の時点(時刻(t−1))で尤度計算をしてもかまわない。ただし、この場合は予測した時に、次時刻(時刻t)の入力画像に対してSIFT特徴量を計算する必要がある。また、このように処理の順番を変更しても算出結果に影響はない。 In the processing operation shown in FIG. 4, since the SIFT feature quantity for the input image at time t is necessary to calculate the likelihood for the camera parameter candidate at time t, the likelihood calculation is performed in step S2. However, likelihood calculation may be performed at the time of prediction in step S16 (time (t-1)). However, in this case, it is necessary to calculate SIFT feature values for the input image at the next time (time t) when predicted. Also, changing the processing order in this way does not affect the calculation results.
次に、第3実施形態おけるカメラパラメータ予測部5の処理について説明する。パーティクルフィルタは、公知の技術であるため、ここでは詳細な説明を省略するが、実際の問題に適用するには処理対象のモデル、状態推移関数及び尤度関数を定める必要がある。以下ではその具体例について説明し、さらに本発明が扱う問題特有の処理について説明する。
Next, the process of the camera
まず、今回予測したいのはカメラパラメータであることから、処理対象のモデルは各カメラパラメータ及びそれらの微分値などが考えられる。この時のモデルは後述する状態推移関数の定義によって変化するが、本実施形態では簡単のためカメラパラメータのみを処理対象のモデルとする。以下では時刻tにおけるこのモデルを状態ベクトルs(t)とする。今回カメラパラメータは回転行列では3次元、並進ベクトルでは2次元、焦点距離で1次元の計6次元であるとする。 First, since it is camera parameters that are desired to be predicted this time, each camera parameter and its differential value can be considered as a model to be processed. The model at this time changes depending on the definition of a state transition function, which will be described later, but in this embodiment, for simplicity, only the camera parameter is used as a model to be processed. Hereinafter, this model at time t is referred to as a state vector s (t). It is assumed that the camera parameters are three dimensions in the rotation matrix, two dimensions in the translation vector, one dimension in the focal length, and six dimensions in total.
次に状態推移関数はランダムウォークを想定する。システムノイズw(t)が平均0で共分散がΣの6次元正規分布に従うとすると、状態推移関数D(t)は以下のように定義できる。
s(t+1)=D(t)[s(t),w(t)]=s(t)+w(t)
Next, the state transition function assumes a random walk. If the system noise w (t) follows a 6-dimensional normal distribution with an average of 0 and a covariance of Σ, the state transition function D (t) can be defined as follows.
s (t + 1) = D (t) [s (t), w (t)] = s (t) + w (t)
ランダムウォークの状態推移関数は対象の動きが比較的小さい場合や複雑な動きの場合に用いられる。対象の動きが等速直線運動を仮定できるなら、それに合う状態ベクトルの定義と状態推移関数が必要である。 The random walk state transition function is used when the movement of the object is relatively small or complicated. If the motion of the object can be assumed to be a constant velocity linear motion, a state vector definition and a state transition function that match it are necessary.
続いて、尤度関数の実施に関しては、本実施形態では、予測された状態ベクトルのもっともらしさとして「そのカメラパラメータを用いてエピポーラ制約をかけた時に求まる対応の組が妥当かどうか」を用いる。具体的には、各カメラパラメータを用いてエピポーラ制約をかけて求まる対応の組に対し、RANSAC処理を施す。この時RANSAC処理に用いるモデルとしてはエピポーラ制約を用いる。ここで、RANSAC処理を施した後の対応の組の数を施す前の対応の組の数で割った時の値を尤度として与える。 Subsequently, regarding the implementation of the likelihood function, the present embodiment uses “whether or not the correspondence set obtained when the epipolar constraint is applied using the camera parameter is valid” as the plausibility of the predicted state vector. Specifically, the RANSAC process is performed on a corresponding set obtained by applying epipolar constraints using each camera parameter. At this time, epipolar constraints are used as a model used for the RANSAC process. Here, a value obtained by dividing the number of corresponding pairs after the RANSAC process by the number of corresponding pairs before being given is given as a likelihood.
次に、第3実施形態おける特徴点対応付け部3の処理について説明する。上記で求められた確率分布を用いて特徴点対応付けを行う。具体的な手順としては、まず各特徴点x0 j(t)に対し、各尤度付きのカメラパラメータの候補を用いることで尤度付きのエピ線を描く。そして、特徴点対応を求めるためにx0 j(t)がそのエピ線上に乗っている特徴点x1 j’(t)に対して特徴量の距離を計算する際、エピ線が持つ尤度を距離に反映させる。すなわち、尤度の高いエピ線上に存在する特徴点とは対応が付けられやすく、尤度が低いエピ線上に存在する特徴点とは対応がつきにくくするというものである。
Next, processing of the feature
以上が予測されたカメラパラメータに対して確率(尤度)を与えた時の本発明の振る舞いである(例としてパーティクルフィルタを用いている)。カメラパラメータの確率を対応付けに付与することで、カメラパラメータのダイナミクスを対応付けに反映させることも可能になる。そのため、ダイナミクスを伴うカメラで撮影された映像を処理する時、第2実施形態などと比較して頑健かつ高精度にカメラパラメータを推定できることが期待される。 The above is the behavior of the present invention when a probability (likelihood) is given to the predicted camera parameter (a particle filter is used as an example). By assigning the camera parameter probability to the association, it is possible to reflect the dynamics of the camera parameter in the association. For this reason, when processing an image shot by a camera with dynamics, it is expected that camera parameters can be estimated more robustly and with higher accuracy than in the second embodiment.
<第4実施形態>
次に、本発明の第4実施形態によるカメラパラメータ推定装置を説明する。第4実施形態によるカメラパラメータ推定装置の構成は、図1に示す構成と同様であるので、ここでは詳細な説明を省略する。本実施形態では、カメラパラメータ予測部5において前時刻の値だけでなく、前々時刻、さらにその前の時刻の値を利用する拡張方法について説明する。また、特徴点対応付け部3に関しては、第3実施形態で説明したカメラパラメータに付与された確率(尤度)を基に対応付けを行う手法を用いるものとする。
<Fourth embodiment>
Next, a camera parameter estimation device according to a fourth embodiment of the present invention will be described. Since the configuration of the camera parameter estimation apparatus according to the fourth embodiment is the same as the configuration shown in FIG. 1, detailed description thereof is omitted here. In the present embodiment, an expansion method that uses not only the previous time value but also the previous time and the previous time value in the camera
具体的な実現方法としては、まず用いる時刻分kを定め(例えば過去3時刻分用いるならk=3)、各時刻における推定値を用意する。第1実施形態では、それぞれの時刻における推定値をそのまま次時刻の予測値として用いていたが、カメラが動いている場合に時刻(t−l)(l<k)かつlが大きい場合には、その時刻の推定値を用いると、予測値としては妥当でないものとなる。そこで、本実施形態では各時刻の推定値には重みw(t−l)(ただし、Σlw(t−l)=1、これを第3実施形態で説明したようなカメラパラメータの確率(尤度)に相当するものとみなす)を付与することで対応する。この時の重みの設計の詳細については省略するが、基本的にはlが大きいほど、重みは小さくするのが妥当である。 As a specific implementation method, first, the time k to be used is determined (for example, k = 3 if used for the past three times), and an estimated value at each time is prepared. In the first embodiment, the estimated value at each time is used as it is as the predicted value of the next time. However, when the camera is moving, the time (t−l) (l <k) and l is large. If the estimated value of the time is used, the predicted value is not valid. Therefore, in this embodiment, the estimated value at each time has a weight w (t−l) (where Σlw (t−l) = 1, which is the probability (likelihood) of the camera parameter as described in the third embodiment. It is considered to be equivalent to)). Although details of the weight design at this time are omitted, basically, it is appropriate to decrease the weight as l increases.
本発明では推定されるカメラパラメータの信頼性が毎時刻同じとは限らず、突発的に推定精度が悪化する場合も存在する。本実施形態は前時刻だけでなくより過去のものを利用していることから、そのような場合でも頑健に働くことが期待される。また、同様の目的で、予測をする場合に次時刻ではなくてl時刻先の値を予測することも考えられる。具体的には、第2実施形態の(2)式の更新式をl回用いるなどで求めることができる。もちろん、これは前述したようにlが大きいほど重みを小さくすることが妥当である。以上のように、本実施形態では前時刻の値を制約として使う、あるいは次時刻の値を予測して用いるだけでなく、より過去の値を使う、より未来の値を予測して用いることも可能である。 In the present invention, the reliability of the estimated camera parameters is not always the same every time, and there are cases where the estimation accuracy suddenly deteriorates. Since the present embodiment uses not only the previous time but also the past, it is expected to work robustly even in such a case. For the same purpose, it is also conceivable to predict a value one time ahead rather than the next time when making a prediction. Specifically, it can be obtained by using the update formula (2) of the second embodiment once. Of course, as described above, it is appropriate to decrease the weight as l increases. As described above, in the present embodiment, the value of the previous time is used as a constraint, or the value of the next time is predicted and used, the past value is used, and the future value is predicted and used. Is possible.
<第5実施形態>
次に、本発明の第5実施形態によるカメラパラメータ推定装置を説明する。図5は同実施形態によるカメラパラメータ推定装置の構成を示すブロック図である。この図において、図1に示す装置と同一の部分には同一の符号を付し、その説明を省略する。この図に示す装置が図1に示す装置と異なる点は、外部センサデータ入力部7、カメラパラメータ推定部8が新たに設けられている点である。外部センサデータ入力部7は、ジャイロセンサやGPSなどの外部センサの値を入力する。カメラパラメータ推定部8は、時刻tにおけるカメラパラメータを推定する。カメラパラメータ推定部8の入力は、時刻(t−1)におけるカメラパラメータPi(t−1),外部センサの出力値Ei(t)である。また、出力は、カメラパラメータPi(t)である。カメラパラメータ推定部8は、Pi(t−1)に対して時刻tにジャイロセンサなどの外部センサが出力した値Ei(t)を用いてカメラパラメータを更新し、時刻tにおけるカメラパラメータPi(t)を出力する。
<Fifth Embodiment>
Next, a camera parameter estimation device according to a fifth embodiment of the present invention will be described. FIG. 5 is a block diagram showing the configuration of the camera parameter estimation apparatus according to the embodiment. In this figure, the same parts as those in the apparatus shown in FIG. The apparatus shown in this figure is different from the apparatus shown in FIG. 1 in that an external sensor
次に、図5を参照して、図5に示すカメラパラメータ推定装置の動作を説明する。まず、特徴点検出部2は、多視点映像入力部1を介して、画像列Ii(t)を入力する。そして、特徴点検出部2は、画像Ii(t)に対して特徴点検出を行い、fi(t)を求める。
Next, the operation of the camera parameter estimation apparatus shown in FIG. 5 will be described with reference to FIG. First, the feature
次に、特徴点対応付け部3は、if t=0であれば、各カメラのペア(i,i’)に対して、特徴点群fi(t),fi’(t)に対して特徴点対応を行い、Mii’(t)を求める。一方、if t>0であれば、特徴点群fi(t),fi’(t)に対してカメラパラメータ予測値P’i(t),P’i’(t)を用いて制約を課して対応を求める。これにより、Mii’(t)が求められたことになる。
Next, if if t = 0, the feature
次に、カメラパラメータ推定部4は、全てのMii’(t)を用いてカメラパラメータPi(t)を推定する。カメラパラメータ出力部6は、ここで推定した値を各時刻におけるカメラパラメータとして出力する。
Next, the camera
次に、カメラパラメータ推定部8は、外部センサデータ入力部7を介してEi(t)を入力し、カメラパラメータ推定部4において推定できない場合、Pi(t−1)に対してEi(t)を用いてPi(t)を推定してカメラパラメータとして出力する。
Next, when the camera parameter estimation unit 8 inputs E i (t) via the external sensor
次に、カメラパラメータ予測部5は、Pi(t’)(t’≦t)の値からP’i(t+1)を予測する。そして、特徴点対応付け部3の処理に移行する。
Next, the camera
カメラパラメータ推定部8では、時刻tにおいて映像からカメラパラメータが求まらなくても、時刻(t−1)のカメラパラメータPi(t−1)が求められていればPi(t)が求められる。具体的には、ジャイロセンサ等を用いて時刻(t−1)から時刻tにおけるカメラの各軸に対する変化が角度として得られるので、それらを前時刻に推定された回転行列Ri(t−1)に加えることでRi(t)が求められる。さらに、GPSでは時刻tにおけるカメラの位置が得られるので、それらを用いて並進ベクトルTi(t)が求められる。なお、各時刻の内部パラメータKi(t)(主に焦点距離)に関しては画像にEXIFタグとして保存されているものとする。これらを合わせて時刻tのカメラパラメータPi(t)として出力する。 Even if the camera parameter estimation unit 8 does not obtain the camera parameter from the video at time t, if the camera parameter P i (t−1) at time (t−1) is obtained, P i (t) is obtained. Desired. Specifically, since a change with respect to each axis of the camera from time (t−1) to time t is obtained as an angle using a gyro sensor or the like, the rotation matrix Ri (t−1) estimated at the previous time is obtained. R i (t) is obtained by adding to. Furthermore, since the position of the camera at time t can be obtained with GPS, the translation vector T i (t) is obtained using them. It is assumed that the internal parameter K i (t) (mainly focal length) at each time is stored as an EXIF tag in the image. These are combined and output as camera parameters Pi (t) at time t.
このように外部センサを用いるのは基本的に映像からカメラパラメータが推定できない時(各カメラが重複領域を持っていない、重複領域を持っているが十分な特徴点対応が取れずに計算ができない)であり、映像から計算できる場合にはそちらの結果を優先することとする。 Using external sensors in this way is basically when camera parameters cannot be estimated from video (each camera does not have an overlapping area, has an overlapping area, but cannot be calculated because sufficient feature point correspondence cannot be obtained. If it can be calculated from the video, the result is given priority.
次に、図6を参照して、第5実施形態おけるカメラパラメータ推定装置の全体の処理動作を説明する。図6は、第5実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。ここでは外部センサとしてジャイロセンサ及びGPSを利用する場合について説明する。まず、多視点映像入力部1は、特徴点検出部2に対して、撮影された多視点映像を入力として与える(ステップS21)。これを受けて、特徴点検出部2は、特徴点を検出する(ステップS22)。そして、特徴点対応付け部3は、特徴点を対応付ける(ステップS23)。続いて、カメラパラメータ推定部4は、カメラパラメータを推定する(ステップS24)。
Next, the overall processing operation of the camera parameter estimation apparatus in the fifth embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing the processing operation of the camera parameter estimation apparatus in the fifth embodiment. Here, a case where a gyro sensor and GPS are used as external sensors will be described. First, the multi-view
一方、この動作と並行して、外部センサデータ入力部7は、外部センサの値を取得する(ステップS25)。カメラパラメータ推定部4は、カメラパラメータを推定可能であるか否かを判定し(ステップS26)。この判定の結果、推定可能でなければカメラパラメータ推定部8は、前時刻のカメラパラメータ推定値と外部センサの値から、現時刻のカメラパラメータを推定する(ステップS27)。そして、カメラパラメータ予測部5は、カメラパラメータを予測する(ステップS28)。
On the other hand, in parallel with this operation, the external sensor
このように、本実施形態ではカメラと外部センサを組み合わせることで、映像からカメラパラメータが求まらない場合でも外部センサを用いてカメラパラメータを求め続けることができる。カメラパラメータ予測部に関しては、前述した手法を始め様々利用可能であるが、外部センサを用いた場合には精度のバラ付き、あるいはそもそも精度があまり良くないことが予想されるので、特徴点対応付けを行うときに第1実施形態のように前時刻の値をそのまま制約として使うのではなく、ある程度予測の範囲を広く持たせるものが望ましい。 As described above, in this embodiment, by combining the camera and the external sensor, the camera parameter can be continuously obtained using the external sensor even when the camera parameter cannot be obtained from the video. The camera parameter prediction unit can be used in a variety of ways, including the methods described above. However, if an external sensor is used, it is expected that the accuracy will vary, or the accuracy will not be very good. When performing the above, it is desirable that the value of the previous time is not used as a constraint as it is in the first embodiment, but that the prediction range is widened to some extent.
<第6実施形態>
次に、本発明の第6実施形態によるカメラパラメータ推定装置を説明する。第6実施形態では、本発明によるカメラパラメータ推定装置の具体的なアプリケーションの例を説明する。本実施形態では本発明によるカメラパラメータ推定装置を用いることによって最も効果が得られると期待できるシーンと、その具体的な適用例について説明する。本発明によるカメラパラメータ推定装置は複数視点の映像を入力とし、各カメラのカメラパラメータを出力とすることから、様々な視点からの映像視聴を可能にする自由視点映像の生成に用いることができる。
<Sixth Embodiment>
Next, a camera parameter estimation device according to a sixth embodiment of the present invention will be described. In the sixth embodiment, an example of a specific application of the camera parameter estimation device according to the present invention will be described. In this embodiment, a scene that can be expected to be most effective by using the camera parameter estimation apparatus according to the present invention and a specific application example thereof will be described. Since the camera parameter estimation apparatus according to the present invention receives a video from a plurality of viewpoints and outputs a camera parameter of each camera, it can be used to generate a free viewpoint video that enables video viewing from various viewpoints.
さらに、本発明によるカメラパラメータ推定装置は、何も制約を用いない手法及び画像ベース時系列制約を用いた従来手法と比較して、カメラ間の距離が大きい時、そして撮影対象が動的な物体かつ撮影カメラが動的なカメラの時に効果が大きいことが期待できる。そのため、動的なカメラで動的な被写体を撮影して自由視点映像を作る場合、例えばライブイベントなどにおいてクレーンに乗ったカメラを複数用意し、それらの映像からライブの自由視点映像を合成する場合や、学芸会や運動会といったイベントを市販の手持ちカメラやスマートフォンを用いて撮影した映像を集めて自由視点映像を合成する場合などが考えられる。 In addition, the camera parameter estimation apparatus according to the present invention is a dynamic object when the distance between cameras is large compared to a method using no constraint and a conventional method using an image-based time series constraint. In addition, it can be expected that the effect is great when the shooting camera is a dynamic camera. Therefore, when creating a free viewpoint video by shooting a dynamic subject with a dynamic camera, for example, when preparing multiple cameras on a crane at a live event, etc., and synthesizing a live free viewpoint video from those videos In addition, it is conceivable to synthesize a free viewpoint video by collecting videos taken using a commercially available handheld camera or smartphone for events such as a school performance or athletic meet.
本発明によるカメラパラメータ推定装置を適用するためには基本的に各カメラが少なくとも自身以外の1台のカメラと重複領域を持っていることが望ましい。そこで、学芸会などでは全体を映すカメラを1台用意することで、その学芸会を映しているカメラは少なくともその1台と重複領域を持つ状況を想定できる。これらのカメラによって撮影された映像を集めて同期を取り、各映像に対して本発明を適用することでカメラパラメータを推定する。さらに、たとえ重複領域を持たない時、つまり全体を映すカメラが用意されていない場合でも第5実施形態で説明したようにそれらのカメラがジャイロセンサやGPSといった外部センサを備えていればカメラパラメータを推定することも可能である。 In order to apply the camera parameter estimation apparatus according to the present invention, it is basically desirable that each camera has an overlapping area with at least one camera other than itself. Therefore, by preparing one camera that reflects the whole at a school or the like, it is possible to assume a situation in which the camera that reflects the school or the event has at least one overlapping area. Video captured by these cameras is collected and synchronized, and the camera parameters are estimated by applying the present invention to each video. Furthermore, even when there is no overlapping area, that is, even when a camera that reflects the whole image is not prepared, as described in the fifth embodiment, if those cameras are provided with an external sensor such as a gyro sensor or GPS, the camera parameters are set. It is also possible to estimate.
<第7実施形態>
次に、本発明の第7実施形態によるカメラパラメータ推定装置を説明する。ここでは、本発明によるカメラパラメータ推定装置を適用することによって得られるカメラパラメータのみを用いて多視点映像アプリケーションの例について説明する。図7は、本発明によるカメラパラメータ推定装置を適用することによって得られるカメラパラメータのみを用いて多視点映像アプリケーションの例を示す説明図である。
<Seventh embodiment>
Next, a camera parameter estimation device according to a seventh embodiment of the present invention is described. Here, an example of a multi-view video application using only camera parameters obtained by applying the camera parameter estimation apparatus according to the present invention will be described. FIG. 7 is an explanatory diagram showing an example of a multi-view video application using only camera parameters obtained by applying the camera parameter estimation device according to the present invention.
まず、本アプリケーションでは複数台のカメラから撮影された多視点映像を視聴することを想定する。通常多視点映像が得られたとしてもそれぞれの映像がどこから撮影されているかは明らかにされておらず、その時々に応じて視聴者自身が判断するという手間が必要であった。これに対し、本発明を適用することで推定できる各カメラのカメラパラメータには各カメラの位置姿勢も含まれることから、本発明によってそれらの位置関係が把握できていることになる。本アプリケーションはこの位置関係を図7のカメラ選択用ディスプレイの用に鳥瞰図などの方法を用いてタッチパネルなどに提示し、視聴者が所望の視点を選択すると、その視点からの映像が映像提示用のディスプレイに映されるというものである。カメラ選択用ディスプレイによって視聴者は各映像がどの場所から撮影されたものなのか、この時刻に他のカメラはどの場所からどの場所を撮影しているのかが一目で分かるようになり、毎回各映像がどこから撮影されているかを判断する手間も省け、かつ視点を変更する際の補助となることが期待される。 First, in this application, it is assumed that a multi-view video shot from a plurality of cameras is viewed. Even if a multi-view video is usually obtained, it is not clear where each video is taken from, and it is necessary for the viewer to make a decision according to the time. On the other hand, since the camera parameters of each camera that can be estimated by applying the present invention include the position and orientation of each camera, the present invention can grasp their positional relationship. This application presents this positional relationship on a touch panel using a bird's eye view or the like for the camera selection display of FIG. 7, and when the viewer selects a desired viewpoint, the video from that viewpoint is displayed for video presentation. It will be shown on the display. The camera selection display allows viewers to see at a glance from which location each video was shot, and from which location the other camera was shooting at this time. It is expected to save time and effort to determine where the image is taken from, and to assist in changing the viewpoint.
以上説明したように、映像に対する自然特徴点ベースキャリブレーションにおいて、カメラ間の位置や角度の差が大きくなるに従い発生する特徴点の誤対応(及びそれに伴うカメラパラメータの推定精度低下)問題に関し、本実施形態を利用することで得られる以下の効果が得られる。 As described above, in the natural feature point-based calibration for the video, this problem is related to the problem of miscorrespondence of feature points (and the accompanying decrease in camera parameter estimation accuracy) that occurs as the difference in position and angle between cameras increases. The following effects obtained by using the embodiment can be obtained.
カメラパラメータベース時系列制約を用い、各特徴点の探索範囲を制限することで誤対応を減少させ、カメラパラメータの推定精度を向上させることができる。画像ベース時系列制約とは異なり、撮影画像に対して制約(特徴点が時間方向に連続して検出されなければならない、など)を設ける必要がないため、特徴点が検出できる全てのシーンに対して適用が可能である。 By using camera parameter-based time series constraints and limiting the search range of each feature point, it is possible to reduce miscorrespondence and improve camera parameter estimation accuracy. Unlike image-based time-series constraints, it is not necessary to place constraints on captured images (feature points must be detected continuously in the time direction, etc.), so for all scenes where feature points can be detected Can be applied.
また、このカメラパラメータベース時系列制約は獲得した画像に対して時系列制約を課していないので、時刻tと時刻(t+1)の各画像において、検出される特徴点の位置が大きく異なる時、すなわち、舞台やライブのように照明の面滅が激しく発生する映像、ズームで人物などの動物体を撮影した映像などの状況において画像ベース時系列制約と比べて効果的である。 In addition, since this camera parameter based time series constraint does not impose a time series constraint on the acquired image, when the position of the detected feature point is greatly different in each image at time t and time (t + 1), In other words, it is more effective than image-based time-series restrictions in situations such as a stage or live video where lighting is severely crushed and a video of a moving object such as a person zoomed.
前述した実施形態におけるカメラパラメータ推定装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 The camera parameter estimation device in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。 As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.
推定するカメラパラメータの推定精度を向上させることが不可欠な用途に適用できる。 The present invention can be applied to applications in which it is essential to improve the estimation accuracy of camera parameters to be estimated.
1・・・多視点映像入力部、2・・・特徴点検出部、3・・・特徴点対応付け部、4・・・カメラパラメータ推定部、5・・・カメラパラメータ予測部、6・・・カメラパラメータ出力部、7・・・外部センサデータ入力部、8・・・カメラパラメータ推定部
DESCRIPTION OF
Claims (6)
前記映像から特徴点を検出する特徴点検出部と、
検出された前記特徴点の対応付けを行う特徴点対応付け部と、
対応付けられた前記特徴点から前記カメラパラメータの推定値を算出するカメラパラメータ推定部と、
既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値を算出するカメラパラメータ予測部とを備え、
前記特徴点対応付け部は、
前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行うことを特徴とするカメラパラメータ推定装置。 A camera parameter estimation device that estimates camera parameters of a plurality of cameras from videos captured by a plurality of cameras,
A feature point detector for detecting feature points from the video;
A feature point associating unit for associating the detected feature points;
A camera parameter estimator that calculates an estimated value of the camera parameter from the associated feature points;
A camera parameter prediction unit that calculates a predicted value of the camera parameter based on the estimated value of the camera parameter that has already been estimated;
The feature point association unit includes:
An apparatus for estimating a camera parameter, characterized in that association is performed using a restriction relating to association of feature points derived from predicted camera parameters.
前記特徴点対応付け部において用いる制約は、エピポーラ制約であることを特徴とする請求項1に記載のカメラパラメータ推定装置。 The camera parameter prediction unit sets the camera parameter prediction value immediately before the estimated value of the camera parameter,
The camera parameter estimation apparatus according to claim 1, wherein the restriction used in the feature point association unit is an epipolar restriction.
前記特徴点対応付け部は、前記確率分布に出現するカメラパラメータの予測値ごとに定まるエピポーラ制約と前記カメラパラメータの予測値に付与されている確率に基づいて特徴点間の対応付けを行うことを特徴とする請求項1に記載のカメラパラメータ推定装置。 The camera parameter prediction unit calculates a probability distribution of the predicted value of the camera parameter based on the estimated value of the camera parameter that has already been estimated,
The feature point associating unit associates feature points based on an epipolar constraint determined for each predicted value of the camera parameter appearing in the probability distribution and a probability given to the predicted value of the camera parameter. The camera parameter estimation apparatus according to claim 1, wherein:
前記カメラパラメータ推定部は、前記カメラパラメータの推定値を前記対応付けられた特徴点から算出できない場合に、過去に算出したカメラパラメータの推定値と前記センサにより計測されるカメラの位置及び姿勢の変化の度合いに基づいて前記カメラパラメータの推定値を算出することを特徴とする請求項1から4のいずれか1項に記載のカメラパラメータ推定装置。 A sensor for measuring a change in the position and orientation of the camera;
When the camera parameter estimation unit cannot calculate the estimated value of the camera parameter from the associated feature points, the estimated value of the camera parameter calculated in the past and the change in the position and orientation of the camera measured by the sensor The camera parameter estimation apparatus according to claim 1, wherein an estimated value of the camera parameter is calculated based on a degree of the camera parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014022575A JP6154759B2 (en) | 2014-02-07 | 2014-02-07 | Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014022575A JP6154759B2 (en) | 2014-02-07 | 2014-02-07 | Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015149675A true JP2015149675A (en) | 2015-08-20 |
JP6154759B2 JP6154759B2 (en) | 2017-06-28 |
Family
ID=53892719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014022575A Expired - Fee Related JP6154759B2 (en) | 2014-02-07 | 2014-02-07 | Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6154759B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020107930A1 (en) * | 2018-11-29 | 2020-06-04 | 南京人工智能高等研究院有限公司 | Camera pose determination method and apparatus, and electronic device |
WO2020235063A1 (en) * | 2019-05-22 | 2020-11-26 | 日本電信電話株式会社 | Image processing method, image processing device and program |
JP2021139809A (en) * | 2020-03-06 | 2021-09-16 | 株式会社豊田中央研究所 | Stationary sensor calibration device and stationary sensor calibration method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009121824A (en) * | 2007-11-12 | 2009-06-04 | Nippon Hoso Kyokai <Nhk> | Camera parameter estimation apparatus and camera parameter estimation program |
JP2010279023A (en) * | 2009-04-30 | 2010-12-09 | Canon Inc | Information processing apparatus and control method thereof |
JP2014027528A (en) * | 2012-07-27 | 2014-02-06 | Nippon Hoso Kyokai <Nhk> | Projection transformation video generation device, program of the same and multi-viewpoint video expression device |
-
2014
- 2014-02-07 JP JP2014022575A patent/JP6154759B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009121824A (en) * | 2007-11-12 | 2009-06-04 | Nippon Hoso Kyokai <Nhk> | Camera parameter estimation apparatus and camera parameter estimation program |
JP2010279023A (en) * | 2009-04-30 | 2010-12-09 | Canon Inc | Information processing apparatus and control method thereof |
JP2014027528A (en) * | 2012-07-27 | 2014-02-06 | Nippon Hoso Kyokai <Nhk> | Projection transformation video generation device, program of the same and multi-viewpoint video expression device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020107930A1 (en) * | 2018-11-29 | 2020-06-04 | 南京人工智能高等研究院有限公司 | Camera pose determination method and apparatus, and electronic device |
US12062205B2 (en) | 2018-11-29 | 2024-08-13 | Nanjing Institute Of Advanced Artificial Intelligence, Ltd. | Camera pose determination method and apparatus, and electronic device |
WO2020235063A1 (en) * | 2019-05-22 | 2020-11-26 | 日本電信電話株式会社 | Image processing method, image processing device and program |
JPWO2020235063A1 (en) * | 2019-05-22 | 2020-11-26 | ||
JP7185162B2 (en) | 2019-05-22 | 2022-12-07 | 日本電信電話株式会社 | Image processing method, image processing device and program |
JP2021139809A (en) * | 2020-03-06 | 2021-09-16 | 株式会社豊田中央研究所 | Stationary sensor calibration device and stationary sensor calibration method |
JP7409163B2 (en) | 2020-03-06 | 2024-01-09 | 株式会社豊田中央研究所 | Stationary sensor calibration device and stationary sensor calibration method |
Also Published As
Publication number | Publication date |
---|---|
JP6154759B2 (en) | 2017-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755428B2 (en) | Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model | |
KR102728513B1 (en) | Slam method and slam system using dual event camaer | |
US10659768B2 (en) | System and method for virtually-augmented visual simultaneous localization and mapping | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
KR102006043B1 (en) | Head pose tracking using a depth camera | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
KR101708659B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
WO2019062291A1 (en) | Binocular vision positioning method, device, and system | |
CN111127524A (en) | A method, system and device for trajectory tracking and three-dimensional reconstruction | |
JP2011008687A (en) | Image processor | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
US10861185B2 (en) | Information processing apparatus and method of controlling the same | |
CN110969706B (en) | Augmented reality device, image processing method, system and storage medium thereof | |
JP2009514066A (en) | "Camera frame matching model generation graphics image for each frame and pixel computer video" | |
US11398048B2 (en) | Estimating camera pose | |
CN114185073A (en) | Pose display method, device and system | |
JP2014216813A (en) | Camera attitude estimation device and program therefor | |
CN113610702B (en) | Picture construction method and device, electronic equipment and storage medium | |
CN114120301A (en) | Pose determination method, device and equipment | |
Dong et al. | Instantaneous video stabilization for unmanned aerial vehicles | |
JP6154759B2 (en) | Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program | |
Kaur et al. | Computer vision and sensor fusion for efficient hybrid tracking in augmented reality systems | |
Laskar et al. | Robust loop closures for scene reconstruction by combining odometry and visual correspondences | |
de França Silva et al. | Unsupervised multi-view multi-person 3d pose estimation using reprojection error |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6154759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |