[go: up one dir, main page]

JP6622503B2 - Camera model parameter estimation apparatus and program thereof - Google Patents

Camera model parameter estimation apparatus and program thereof Download PDF

Info

Publication number
JP6622503B2
JP6622503B2 JP2015152083A JP2015152083A JP6622503B2 JP 6622503 B2 JP6622503 B2 JP 6622503B2 JP 2015152083 A JP2015152083 A JP 2015152083A JP 2015152083 A JP2015152083 A JP 2015152083A JP 6622503 B2 JP6622503 B2 JP 6622503B2
Authority
JP
Japan
Prior art keywords
camera
calibration
parameter
unit
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015152083A
Other languages
Japanese (ja)
Other versions
JP2016105577A (en
Inventor
正規 加納
正規 加納
英彦 大久保
英彦 大久保
健佑 池谷
健佑 池谷
健介 久富
健介 久富
三科 智之
智之 三科
岩舘 祐一
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Publication of JP2016105577A publication Critical patent/JP2016105577A/en
Application granted granted Critical
Publication of JP6622503B2 publication Critical patent/JP6622503B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本願発明は、撮影カメラ及び雲台から構成されるカメラシステムのカメラモデルパラメータを推定するカメラモデルパラメータ推定装置及びそのプログラムに関する。   The present invention relates to a camera model parameter estimation apparatus and program for estimating a camera model parameter of a camera system composed of a photographing camera and a camera platform.

近年、多視点カメラで撮影した映像を用いて、3次元映像処理を始めとした様々な研究開発が積極的に行われている。これらを実現する上で重要な技術の1つに、カメラ校正がある。ここで、カメラ校正とは、撮影カメラのカメラパラメータを求めることである。また、カメラパラメータには、撮影カメラの位置及び姿勢を表す外部パラメータと、焦点距離等の撮影カメラに固有の内部パラメータとが含まれる。   In recent years, various research and development including 3D image processing has been actively performed using images taken by a multi-viewpoint camera. One of the important technologies for realizing these is camera calibration. Here, the camera calibration is to obtain camera parameters of the photographing camera. The camera parameters include external parameters indicating the position and orientation of the photographing camera, and internal parameters specific to the photographing camera such as a focal length.

カメラ校正の手法は、大きく2つに分けることができる。第1の手法は、撮影カメラの撮影画像から画像解析により特徴点を抽出し、その特徴点の位置関係からカメラ校正を行うものである。この第1の手法は、センサ等の電子機器が不要という利点がある。ここで、第1の手法は強校正と弱校正とに分類されるが、どちらの手法にも課題が存在する。強校正は、校正パターンを撮影してカメラ校正を行うが、撮影映像に校正パターンが映っている必要があるため、撮影映像に大きな制約ができる。弱校正は、特徴点の抽出、対応付け及びバンドル調整などを行う必要があり、撮影画像によってはこれらの処理が上手くいかず適切にカメラ校正ができない場合がある。また、第1の手法は、特徴点の抽出や数値計算のような複雑な処理が必要なため、十分な精度を確保しつつ高速な処理、特に実時間での処理が難しい場合がある。   Camera calibration methods can be roughly divided into two. In the first method, feature points are extracted from a photographed image of a photographing camera by image analysis, and camera calibration is performed from the positional relationship of the feature points. This first method has an advantage that an electronic device such as a sensor is unnecessary. Here, the first method is classified into strong calibration and weak calibration, but both methods have problems. In the strong calibration, the calibration pattern is photographed and the camera is calibrated. However, since the calibration pattern needs to be reflected in the photographed image, the photographed image can be greatly restricted. In weak calibration, it is necessary to perform extraction, association, bundle adjustment, and the like of feature points, and depending on the captured image, these processes may not be successful and camera calibration may not be performed properly. In addition, since the first method requires complicated processing such as feature point extraction and numerical calculation, high-speed processing, particularly real-time processing, may be difficult while ensuring sufficient accuracy.

以上のような問題があるため、第2の手法を検討する。第2の手法は、センサを利用して雲台のパンやチルト等の情報を物理的に計測し、その情報を使用してカメラ校正を行う。この第2の手法は、事前に校正パターンを使用し、カメラモデルパラメータを計算する必要があるが、使用時はカメラモデルパラメータとセンサ値(パン・チルト等)とを使った簡単な計算処理だけでカメラパラメータを得られるため、実時間処理も可能である。さらに、第2の手法は、使用時において撮影画像への制約や依存がなく、確実にカメラ校正が可能である。   Because of the above problems, the second method is considered. In the second method, information such as pan and tilt of the camera platform is physically measured using a sensor, and camera calibration is performed using the information. In this second method, it is necessary to calculate the camera model parameters in advance using the calibration pattern, but only simple calculation processing using the camera model parameters and sensor values (pan, tilt, etc.) is necessary. Since the camera parameters can be obtained, real-time processing is also possible. Furthermore, the second method has no restrictions or dependence on the photographed image at the time of use, and can calibrate the camera reliably.

ここで、第2の手法として、バーチャルスタジオにおけるCG(Computer Graphics)合成を目的として、1台の撮影カメラを対象として、カメラ校正を行う技術が知られている(特許文献1,非特許文献1)。これら従来技術は、特徴点の間隔や大きさが異なる校正パターンを複数用意しておき、撮影カメラが広角から望遠まで大きくズームした場合でも、そのズーム範囲に適した校正パターンを選択する。そして、従来技術は、選択した校正パターンから特徴点を抽出し、抽出した特徴点の座標と、センサで取得したパンやチルト等の情報とを用いて、カメラモデルパラメータの推定及びカメラ校正を行う。   Here, as a second technique, there is known a technique for performing camera calibration for one photographing camera for the purpose of CG (Computer Graphics) synthesis in a virtual studio (Patent Document 1, Non-Patent Document 1). ). In these conventional techniques, a plurality of calibration patterns having different feature point intervals and sizes are prepared, and a calibration pattern suitable for the zoom range is selected even when the photographing camera is zoomed greatly from wide angle to telephoto. Then, the conventional technique extracts feature points from the selected calibration pattern, and performs camera model parameter estimation and camera calibration using the coordinates of the extracted feature points and information such as pan and tilt acquired by the sensor. .

特許第4960941号公報Japanese Patent No. 4960941

大久保英彦 他4名、バーチャルスタジオにおけるカメラキャリブレーション高精度化の考察、FIT2007(第6回情報科学フォーラム)、2007、p.541−542Hidehiko Okubo and 4 others, Consideration of high-precision camera calibration in virtual studios, FIT2007 (6th Information Science Forum), 2007, p. 541-542

しかし、前記した従来技術では、校正パターン間で座標系の関係が考慮されておらず、カメラ校正の精度が十分でない場合がある。そこで、カメラ校正の精度を向上させるため、より高精度なカメラモデルパラメータを推定する手法の実現が強く望まれている。   However, in the above-described conventional technology, the relationship of the coordinate system is not considered between the calibration patterns, and the accuracy of camera calibration may not be sufficient. Therefore, in order to improve the accuracy of camera calibration, it is strongly desired to realize a method for estimating camera model parameters with higher accuracy.

本願発明は、高精度なカメラモデルパラメータを推定できるカメラモデルパラメータ推定装置及びそのプログラムを提供することを課題とする。   It is an object of the present invention to provide a camera model parameter estimation apparatus and a program for estimating a camera model parameter with high accuracy.

前記した課題に鑑みて、本願発明に係るカメラモデルパラメータ推定装置は、複数の撮影カメラで複数の校正パターンを撮影した撮影画像を用いて、撮影カメラのカメラモデルパラメータを推定するカメラモデルパラメータ推定装置であって、特徴点抽出部と、初期値生成用カメラ校正部と、第1外部パラメータ設定部と、第2外部パラメータ算出部と、校正パターン関係式設定部と、予測画像座標算出部と、カメラモデルパラメータ最適化部と、を備える構成とした。   In view of the above-described problems, a camera model parameter estimation apparatus according to the present invention is a camera model parameter estimation apparatus that estimates camera model parameters of a shooting camera using shot images obtained by shooting a plurality of calibration patterns with a plurality of shooting cameras A feature point extraction unit, an initial value generation camera calibration unit, a first external parameter setting unit, a second external parameter calculation unit, a calibration pattern relational expression setting unit, a predicted image coordinate calculation unit, And a camera model parameter optimization unit.

かかる構成によれば、カメラモデルパラメータ推定装置は、特徴点抽出部によって、撮影画像毎に、撮影画像から校正パターンの特徴点を抽出し、抽出した特徴点の座標である観測画像座標を出力する。
カメラモデルパラメータ推定装置は、初期値生成用カメラ校正部によって、撮影カメラ毎の内部パラメータの初期値をカメラ校正で算出する。
According to this configuration, the camera model parameter estimation device extracts the feature point of the calibration pattern from the captured image for each captured image by the feature point extraction unit, and outputs the observed image coordinates that are the coordinates of the extracted feature point. .
In the camera model parameter estimation device, the initial value generation camera calibration unit calculates the initial value of the internal parameter for each photographing camera by camera calibration.

カメラモデルパラメータ推定装置は、第1外部パラメータ設定部によって、撮影カメラ毎に、パン・チルト座標系をカメラ座標系に変換する第1外部パラメータの初期値を設定する。
なお、パン・チルト座標系とは、撮影原点からパン・チルトした撮影カメラを搭載する雲台における3次元座標系のことである。
また、カメラ座標系とは、撮影原点からパン・チルトした撮影カメラの光学中心における3次元座標系のことである。
In the camera model parameter estimation device, the first external parameter setting unit sets an initial value of a first external parameter for converting the pan / tilt coordinate system to the camera coordinate system for each photographing camera.
The pan / tilt coordinate system is a three-dimensional coordinate system in a pan / tilt head on which a photographing camera panned / tilted from the photographing origin is mounted.
The camera coordinate system is a three-dimensional coordinate system at the optical center of the photographing camera panned / tilted from the photographing origin.

カメラモデルパラメータ推定装置は、第2外部パラメータ算出部によって、撮影カメラ毎に、校正パターンのうち予め設定した1つの基準校正パターンにおける基準校正パターン座標系を雲台座標系に変換する第2外部パラメータの初期値を算出する。
なお、基準校正パターン座標系とは、基準校正パターンの任意の一点を中心とした3次元座標系のことである。
また、雲台座標系とは、撮影原点からパン・チルトしておらず、撮影原点を向いた撮影カメラを搭載する雲台における3次元座標系のことである。
The camera model parameter estimation device uses the second external parameter calculation unit to convert, for each photographing camera, a second external parameter for converting a reference calibration pattern coordinate system in a preset one of the calibration patterns into a pan head coordinate system. The initial value of is calculated.
The reference calibration pattern coordinate system is a three-dimensional coordinate system centered on an arbitrary point of the reference calibration pattern.
The pan / tilt head coordinate system is a three-dimensional coordinate system in a pan / tilt head that is not panned / tilted from the photographing origin and has a photographing camera facing the photographing origin.

カメラモデルパラメータ推定装置は、校正パターン関係式設定部によって、校正パターンの間で座標系の関係を表す校正パターン関係式の初期値を予め設定する。
この校正パターン関係式を予め設定することで、複数の撮影カメラで校正パターンの位置関係を共有し、より強い拘束条件をカメラモデルパラメータの推定に加えることができる。
In the camera model parameter estimation apparatus, an initial value of a calibration pattern relational expression representing a relation of a coordinate system between calibration patterns is set in advance by a calibration pattern relational expression setting unit.
By setting this calibration pattern relational expression in advance, the positional relationship of the calibration pattern can be shared by a plurality of photographing cameras, and stronger constraint conditions can be added to the estimation of the camera model parameters.

カメラモデルパラメータ推定装置は、予測画像座標算出部によって、校正パターン情報が予め設定され、この校正パターン情報の特徴点の座標から予測画像座標を算出する。
なお、校正パターン情報とは、校正パターンに含まれる特徴点の座標を表す情報である。
また、予測画像座標は、撮影カメラで撮影された画像に含まれる特徴点の座標をカメラモデルパラメータで予測したものである。
In the camera model parameter estimation apparatus, calibration pattern information is preset by the predicted image coordinate calculation unit, and the predicted image coordinates are calculated from the coordinates of the feature points of the calibration pattern information.
The calibration pattern information is information representing the coordinates of feature points included in the calibration pattern.
The predicted image coordinates are obtained by predicting the coordinates of feature points included in an image photographed by the photographing camera using camera model parameters.

カメラモデルパラメータ推定装置は、カメラモデルパラメータ最適化部によって、観測画像座標と予測画像座標との距離が最小となるように、カメラモデルパラメータ及び校正パターン関係式が含まれる評価式を最適化することで、カメラモデルパラメータを推定する。
なお、カメラモデルパラメータは、撮影カメラの内部パラメータと、撮影カメラの第1外部パラメータ及び第2外部パラメータとからなり、カメラシステムの状態を表すモデルである。
The camera model parameter estimation device optimizes an evaluation formula including a camera model parameter and a calibration pattern relational expression so that a distance between an observed image coordinate and a predicted image coordinate is minimized by a camera model parameter optimization unit. Thus, the camera model parameters are estimated.
The camera model parameter is a model that includes an internal parameter of the photographing camera, a first external parameter, and a second external parameter of the photographing camera, and represents the state of the camera system.

本願発明によれば、以下のような優れた効果を奏する。
本願発明に係るカメラモデルパラメータ推定装置は、複数の撮影カメラで校正パターンの位置関係を共有し、より強い拘束条件をカメラモデルパラメータの推定に加えるため、高精度なカメラモデルパラメータを推定することができる。これによって、本願発明に係るカメラモデルパラメータ推定装置は、カメラ校正の精度をより向上させることができる。
According to the present invention, the following excellent effects can be obtained.
The camera model parameter estimation apparatus according to the present invention can estimate a highly accurate camera model parameter in order to share the positional relationship of the calibration pattern among a plurality of shooting cameras and to add a stronger constraint condition to the estimation of the camera model parameter. it can. Thereby, the camera model parameter estimation apparatus according to the present invention can further improve the accuracy of camera calibration.

本願発明の第1実施形態において、校正パターン座標系と、パン・チルト座標系と、カメラ座標系と、雲台座標系とを説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining a calibration pattern coordinate system, a pan / tilt coordinate system, a camera coordinate system, and a pan head coordinate system. 本願発明の第1実施形態において、カメラシステムと、校正パターンとの配置を説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining arrangement | positioning of a camera system and a calibration pattern. 本願発明の第1実施形態において、校正パターンを説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining a calibration pattern. 本願発明の第1実施形態において、カメラシステムによる校正パターンの撮影を説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining imaging | photography of the calibration pattern by a camera system. (a)〜(e)はカメラシステムが撮影した撮影画像の説明図である。(A)-(e) is explanatory drawing of the picked-up image image | photographed with the camera system. 本願発明の第1実施形態において、各座標系の変換を説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining conversion of each coordinate system. 本願発明の第1実施形態において、関係式の省略を説明する説明図である。In 1st Embodiment of this invention, it is explanatory drawing explaining omission of a relational expression. 本願発明の第1実施形態に係るカメラ校正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera calibration apparatus which concerns on 1st Embodiment of this invention. 図8のカメラモデルパラメータ推定部の構成を示すブロック図である。It is a block diagram which shows the structure of the camera model parameter estimation part of FIG. 図8のカメラ校正装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera calibration apparatus of FIG. 図9の初期値生成部の動作を示すフローチャートである。10 is a flowchart showing the operation of the initial value generation unit in FIG. 9. 本願発明の第2実施形態において、移設前後での各座標系を説明する説明図である。In 2nd Embodiment of this invention, it is explanatory drawing explaining each coordinate system before and behind transfer. 本願発明の第2実施形態において、校正パターン座標系と、パン・チルト座標系と、カメラ座標系と、雲台座標系とを説明する説明図である。In 2nd Embodiment of this invention, it is explanatory drawing explaining a calibration pattern coordinate system, a pan / tilt coordinate system, a camera coordinate system, and a pan head coordinate system. 本願発明の第2実施形態に係るカメラ校正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera calibration apparatus which concerns on 2nd Embodiment of this invention. 図14のカメラモデルパラメータ推定部の構成を示すブロック図である。It is a block diagram which shows the structure of the camera model parameter estimation part of FIG. 図14のカメラ校正装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera calibration apparatus of FIG. 図15の初期値生成部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the initial value production | generation part of FIG.

(第1実施形態)
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一手段及び同一処理には同一の符号を付し、説明を省略した。
まず、本願発明の第1実施形態におけるカメラ校正手法を説明した後、本願発明の第1実施形態に係るカメラ校正装置(カメラモデルパラメータ推定装置)の具体的構成を説明する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, the same means and the same process are denoted by the same reference numerals, and description thereof is omitted.
First, after describing the camera calibration method according to the first embodiment of the present invention, the specific configuration of the camera calibration apparatus (camera model parameter estimation apparatus) according to the first embodiment of the present invention will be described.

[カメラ校正手法]
図1のように、カメラシステム(撮影カメラ)Cは、カメラ本体CBと、雲台CPと、センサCS(図8)とで構成されるシステムである。本実施形態では、カメラシステムCは、多視点映像を撮影する多視点カメラであることとする。
[Camera calibration method]
As shown in FIG. 1, the camera system (photographing camera) C i is a system including a camera body CB i , a pan head CP i, and a sensor CS i (FIG. 8). In the present embodiment, the camera system C i, it is assumed that a multi-view camera for photographing the multi-view image.

カメラ本体CBは、映像を撮影する一般的なビデオカメラである。
雲台CPは、カメラ本体CBを搭載すると共に、カメラ本体CBがパン及びチルトするように可動する台座である。
センサCSは、カメラシステムC(雲台CP)がパンした角度を表すパン値と、カメラシステムC(雲台CP)がチルトした角度を表すチルト値とを計測するものである。
The camera body CB i is a general video camera that captures images.
Camera platform CP i is configured to mount the camera body CB i, the camera body CB i is the base for moving to pan and tilt.
Sensor CS i is one in which the camera system C i (universal head CP i) is measured and the tilt value that represents the pan value representing the angle obtained by panning, the angle of the camera system C i (universal head CP i) is tilted .

ここで、カメラシステムCの物理的な構成を考慮したカメラモデルを定義するため、単純な座標系の変換を考える。ある座標系Σから別の座標系Σに変換する場合、この座標変換は、回転角度α,β,γとし、並進ベクトルt,t,tとして、合計6個のパラメータで表すことができる。つまり、座標変換は、式(1)で表すことができる。このとき、式(1)のθextは、外部パラメータと呼ばれる。なお、添え字の‘T’は、転置を表す。 Here, in order to define the camera model considering a physical configuration of the camera system C i, consider the conversion of a simple coordinate system. When converting from one coordinate system sigma A different coordinate system sigma B, the coordinate transformation, the rotation angle alpha, beta, and gamma, the translation vector t x, t y, as t z, expressed in total six parameters be able to. That is, the coordinate conversion can be expressed by Expression (1). At this time, θ ext in Expression (1) is called an external parameter. Note that the subscript 'T' represents transposition.

Figure 0006622503
Figure 0006622503

この式(1)は、回転行列及び並進ベクトルtを用いて、式(2)〜式(6)で表すことができる。
なお、行列では、右下及び左上の両方に添え字を付けた場合、右下の添え字が変換前の座標系を表し、左上の添え字が変換後の座標系を表す。
また、並進ベクトルでは、左上の添え字が座標系を表す。
This equation (1) can be expressed by equations (2) to (6) using the rotation matrix B R A and the translation vector B t.
In the matrix, when subscripts are added to both the lower right and upper left, the lower right subscript represents the coordinate system before conversion, and the upper left subscript represents the coordinate system after conversion.
In the translation vector, the subscript at the upper left represents the coordinate system.

Figure 0006622503
Figure 0006622503

Figure 0006622503
Figure 0006622503

Figure 0006622503
Figure 0006622503

Figure 0006622503
Figure 0006622503

Figure 0006622503
Figure 0006622503

また、式(2)〜式(6)は、剛体変換を表す行列を用いると、式(7)で表すことができる。 Further, Equation (2) to (6), using the matrix B M A representing a rigid transformation can be expressed by Equation (7).

Figure 0006622503
Figure 0006622503

ここで、1台のカメラシステムC及び1個の校正パターンPにおいて、図1のような座標系を定義し、カメラモデルを考える。
校正パターンPの座標系を、校正パターン座標系ΣPjとする。この校正パターン座標系ΣPjは、校正パターンPの任意の一点を原点とした3次元座標系のことである。
Here, in one camera system C i and one calibration pattern P j , a coordinate system as shown in FIG. 1 is defined and a camera model is considered.
The coordinate system of the calibration pattern P j, the calibration pattern coordinate system sigma Pj. The calibration pattern coordinate system sigma Pj is that the 3-dimensional coordinate system with the origin of an arbitrary point of the calibration pattern P j.

雲台CPにおいて、直交するパン軸及びチルト軸が交わる1点を雲台中心Qとする。この雲台中心Qにおいて、カメラシステムCが撮影原点を向いているとき(つまり、パン値及びチルト値が0のとき)の3次元座標系を雲台座標系ΣCPiとする。 In the camera platform CP i , one point where the orthogonal pan axis and tilt axis intersect is defined as the camera platform center Q. A three-dimensional coordinate system when the camera system C i is directed to the photographing origin at the pan head center Q (that is, when the pan value and tilt value are 0) is defined as a pan head coordinate system ΣCPi .

雲台中心Qにおいて、カメラシステムCがパン及びチルトした後の3次元座標系をパン・チルト座標系ΣPTiとする。また、カメラ本体CBの光学中心Sにおいて、カメラシステムCがパン及びチルトした後の3次元座標系をカメラ座標系ΣCiとする。 In the pan head center Q, the camera system C i is the pan-tilt coordinate system sigma PTi 3-dimensional coordinate system after the pan and tilt. A three-dimensional coordinate system after the camera system C i pans and tilts at the optical center S of the camera body CB i is a camera coordinate system Σ Ci .

ここで、校正パターン座標系ΣPjから雲台座標系ΣCPiへの変換は、パラメータ表記するとCPθext,iとなり、行列表記するとCPiPjとなる(第2外部パラメータ)。
また、パン・チルト座標系ΣPTiからカメラ座標系ΣCiへの変換は、パラメータ表記するとθext,iとなり、行列表記するとCiPTiとなる(第1外部パラメータ)。
この場合、求めるべき外部パラメータθext,iは、式(8)で表すことができる。
Here, the conversion from the calibration pattern coordinate system sigma Pj to the camera platform coordinate system sigma CPi, when the parameter denoted CP theta ext, i, and becomes a CPi M Pj With matrix notation (second external parameters).
The conversion from the pan-tilt coordinate system sigma PTi to the camera coordinate system sigma Ci, when the parameter notation C theta ext, i, and becomes a Ci M PTi With matrix notation (first external parameter).
In this case, the external parameter θ ext, i to be obtained can be expressed by Expression (8).

Figure 0006622503
Figure 0006622503

雲台座標系ΣCPiからパン・チルト座標系ΣPTiへの変換は、行列表記するとPTiCPiとなる(第3外部パラメータ)。この行列PTiCPiは、式(9)で表すことができる。式(9)の回転行列PTiCPiは、雲台座標系ΣCPiからパン・チルト座標系ΣPTiへの回転行列を表す。また、式(9)において、雲台座標系ΣCPi及びパン・チルト座標系ΣPTiが共に雲台中心Qを原点とするから、並進ベクトルPTitが0となる。 The transformation from the pan head coordinate system ΣCPi to the pan / tilt coordinate system ΣPTi is expressed as PTi M CPi (third external parameter). This matrix PTi M CPi can be expressed by Equation (9). The rotation matrix PTi R CPi in Expression (9) represents a rotation matrix from the pan head coordinate system ΣCPi to the pan / tilt coordinate system ΣPTi . In equation (9), since the pan head coordinate system Σ CPi and the pan / tilt coordinate system Σ PTi both have the pan head center Q as the origin, the translation vector PTi t becomes zero.

Figure 0006622503
Figure 0006622503

回転行列PTiCPiは、式(10)で求めることができる。この式(10)では、φがチルト角であり、ρがパン角である。従って、センサCSで計測したパン値及びチルト値を式(10)に代入することで、回転行列PTiCPiを求めることができる。 The rotation matrix PTi R CPi can be obtained by Expression (10). In this formula (10), φ is the tilt angle and ρ is the pan angle. Therefore, the rotation matrix PTi R CPi can be obtained by substituting the pan value and tilt value measured by the sensor CS i into the equation (10).

Figure 0006622503
Figure 0006622503

以上より、カメラシステムCにおける各座標系の関係は、式(11)で表すことができる。つまり、式(11)は、行列CiPTiPTiCPiCPiPjと、行列CiPjとの関係を表している。
なお、行列CiPjは、校正パターン座標系ΣPjをカメラ座標系ΣCiに変換するものである(第4外部パラメータ)。
Thus, the relationship of the coordinate system in the camera system C i can be expressed by Equation (11). In other words, equation (11), the matrix Ci M PTi, PTi M CPi, which represents the CPi M Pj, the relationship between the matrix Ci M Pj.
Incidentally, the matrix Ci M Pj is to convert the calibration pattern coordinate system sigma Pj in the camera coordinate system sigma Ci (fourth external parameter).

Figure 0006622503
Figure 0006622503

また、カメラシステムCの内部パラメータθint,iは、式(12)で表すことができる。この式(12)では、焦点距離f、アスペクト比α、画像中心cu,i,cv,i、レンズ歪係数k1,i,k2,i,k3,i,k4,iを表している。 Further, the internal parameter θ int, i of the camera system C i can be expressed by Expression (12). In this equation (12), the focal length f i , the aspect ratio α i , the image center c u, i , c v, i , and the lens distortion coefficients k 1, i , k 2, i , k 3, i , k 4, i is represented.

Figure 0006622503
Figure 0006622503

レンズ歪係数k1,i〜k4,iは、式(13)で表すことができる。この式(13)では、歪曲収差のない理想的なレンズで撮影されたときの画像座標[un,i,vn,i、歪曲収差のあるレンズで撮影されたときの画像座標[ud,i,vd,i、画像中心からの距離rを表している。ここで、r =un,i +vn,i となる。 The lens distortion coefficients k1 , i to k4 , i can be expressed by Expression (13). In this equation (13), image coordinates [u n, i , v n, i ] T when imaged with an ideal lens without distortion, image coordinates when imaged with a lens with distortion aberration [ u d, i , v d, i ] T , and distance r i from the image center. Here, r i 2 = un , i 2 + v n, i 2 .

Figure 0006622503
Figure 0006622503

本願発明では、図2のように、複数のカメラシステムCと、複数の校正パターンPとを配置して、カメラモデルパラメータを推定する。ここで、カメラシステムCがn個(i=1,…,n)、校正パターンがm個(j=1,…,m)であることとする(但し、m,nは1を超える自然数)。 In the present invention, as shown in FIG. 2, a plurality of camera systems C i and a plurality of calibration patterns P j are arranged to estimate camera model parameters. Here, n camera systems C i (i = 1,..., N) and m calibration patterns (j = 1,..., M) (where m and n are natural numbers exceeding 1). ).

例えば、校正パターンPは、図3のようなチェッカーボードパターンである。また、全ての校正パターンPは、全てのカメラシステムCから見えるように配置する。そして、各カメラシステムCが姿勢を変えながら、ある1個の校正パターンPを撮影する。さらに図4のように、各カメラシステムCは、姿勢を変えながらの撮影を別の校正パターンPについても行う。 For example, the calibration pattern P j is a checkerboard pattern as shown in FIG. Further, all the calibration patterns P j are arranged so as to be visible from all the camera systems C i . Each camera system C i photographs a certain calibration pattern P j while changing the posture. Further, as shown in FIG. 4, each camera system C i performs shooting while changing the posture with respect to another calibration pattern P j .

従って、図5(a)〜(e)のように、カメラシステムCが撮影した撮影画像では、各校正パターンPの位置や向きが異なる。つまり、カメラシステムCにおいて、雲台座標系ΣCPiと校正パターン座標系ΣPjとの関係を表す外部パラメータCPθext,i(j)は、校正パターンPの数mだけ存在する。このため、カメラシステムCのカメラモデルパラメータは、式(14)のようになる。 Accordingly, as shown in FIG. 5 (a) ~ (e) , in the captured image by the camera system C i is taken, the position and orientation of the calibration patterns P j are different. That is, in the camera system C i, the external parameter CP theta ext representing the relationship between the camera platform coordinate system sigma CPi and calibration pattern coordinate system Σ Pj, i (j) is equal in number to the number m of the calibration pattern P j. Therefore, camera model parameters of the camera system C i is as Equation (14).

Figure 0006622503
Figure 0006622503

校正パターンPの間で座標系の関係を表す校正パターン関係式ηは、回転角度αβγと、並進ベクトルx,jy,jz,jとを用いて、式(15)で表すことができる。 A calibration pattern relational expression η j representing a coordinate system relationship between the calibration patterns P j includes rotation angles P α j , P β j , P γ j and translation vectors P t x, j , P t y, j , Using P tz, j , it can be expressed by equation (15).

Figure 0006622503
Figure 0006622503

全ての校正パターンPの中から、1つの校正パターンを基準校正パターンPとして予め設定する。ここでは、w番目の校正パターンが基準校正パターンPであることとする(1≦w≦m)。この基準校正パターンPにおいて、任意の一点を原点とした3次元座標系を基準校正パターン座標系(世界座標系)ΣPwとする。このとき、関係式ηは、校正パターンPの数mだけ存在するが、そのうちの1つは基準校正パターンP同士の関係を表すことになる。従って、基準校正パターンP同士の関係を求める必要がない。 From all of the calibration pattern P j, pre-set one of the calibration pattern as a reference calibration pattern P w. Here, it is assumed that w th calibration pattern is the reference calibration pattern P w (1 ≦ w ≦ m ). In this reference calibration pattern P w, reference calibration the 3-dimensional coordinate system with the origin of the arbitrary point pattern coordinate system (world coordinate system) and sigma Pw. At this time, the relational expression η j exists for the number m of the calibration patterns P j , and one of them represents the relationship between the reference calibration patterns P w . Therefore, it is not necessary to determine the relationship between the reference calibration pattern P w.

あるカメラシステムCと各校正パターンP,…,P,…,Pとの関係は、図6のようになる。最適化の際、変数を少なくした方がカメラモデルパラメータの精度が向上する。また、外部パラメータCPθext,i(j)は、校正パターン関係式が定義されているため、全てを求める必要がなく、1つだけ求めればよい。 There camera system C i and the calibration patterns P 1, ..., P w, ..., the relationship between P m, is shown in FIG. When optimizing, reducing the number of variables improves the accuracy of the camera model parameters. Further, since the calibration parameter relational expression is defined for the external parameter CP θ ext, i (j), it is not necessary to obtain all of them, and only one needs to be obtained.

そこで、雲台座標系ΣCPiと基準校正パターンPとの関係だけに限定すると、式(14)のカメラモデルパラメータは、式(16)のように簡略化できる。この式(16)に含まれるCPθext,i(w)は、基準校正パターン座標系ΣPwから雲台座標系ΣCPiへの変換をパラメータ表記したものである。なお、関係式を簡略化できる理由は、後記する。 Therefore, when limited to the relationship between the camera platform coordinate system sigma CPi and the reference calibration pattern P w, camera model parameters of formula (14) can be simplified as equation (16). CP theta ext included in this equation (16), i (w) is the conversion of the reference calibration pattern coordinate system sigma Pw to the camera platform coordinate system sigma CPi is obtained by the parameter representation. The reason why the relational expression can be simplified will be described later.

Figure 0006622503
Figure 0006622503

従って、最適化で評価すべきパラメータμは、式(17)で表すことができる。この式(17)には、全てのカメラシステムC,…,Cにおける内部パラメータθint及び外部パラメータθextCPθext(w)と、式(15)の全ての校正パターン関係式ηとが含まれる。 Therefore, the parameter μ to be evaluated by the optimization can be expressed by Expression (17). This equation (17) includes internal parameters θ int and external parameters C θ ext , CP θ ext (w) in all camera systems C 1 ,..., C n and all calibration pattern relational expressions in equation (15). η j is included.

Figure 0006622503
Figure 0006622503

カメラシステムCがパン角、チルト角を変化させて、校正パターンPを撮影したときの姿勢をkij=1,…,pijとする(但し、pijは1を超える自然数)。また、校正パターンPの特徴点の番号をl=1,…,qとする(但し、qは1を超える自然数)。撮影画像から抽出した特徴点lの座標は、観測画像座標と呼ばれる。 The posture when the camera system C i changes the pan angle and the tilt angle and photographs the calibration pattern P j is k ij = 1,..., P ij (where p ij is a natural number exceeding 1). In addition, the number of the feature points of the calibration pattern P j is set to l j = 1,..., Q j (where q j is a natural number exceeding 1). The coordinates of the feature point l j extracted from the captured image are called observation image coordinates.

校正パターンPの特徴点lの座標が既知なので、予め設定された校正パターン情報を用いて、カメラシステムCが校正パターンPを姿勢kijで撮影したときの特徴点lの座標を予測する。この予測した特徴点lの座標は予測画像座標と呼ばれ、その算出方法を後記する。
なお、校正パターン情報とは、校正パターンP毎に、各校正パターンPに含まれる特徴点の座標及び数を表した情報である。
Since the coordinate of the feature point l j of the calibration pattern P j is known, using a calibration pattern information set in advance, the camera system C i is the coordinate of the feature point l j upon shooting calibration pattern P j at position k ij Predict. The predicted coordinates of the feature point l j are called predicted image coordinates, and the calculation method will be described later.
Incidentally, the calibration and the pattern information, for each calibration pattern P j, is information representing the coordinate and the number of feature points included in the calibration patterns P j.

そして、式(17)のパラメータμは、全て観測画像座標と予測画像座標との距離を求め、求めた距離の2乗和を最小化することで求められる。つまり、パラメータμは、評価式としての式(18)を最適化することで求められる。その後、パラメータμに含まれるカメラモデルパラメータθと、センサCSで計測されたパン値及びチルト値とを用いて、カメラ校正を行う。
なお、式(18)では、‘arg min‘が最小化を表し、‘||’がノルムを表し、u^ijkijljが予測画像座標を表し、uijkijljが観測画像座標を表す。
The parameters μ in Expression (17) are all obtained by obtaining the distance between the observed image coordinates and the predicted image coordinates and minimizing the sum of squares of the obtained distances. That is, the parameter μ is obtained by optimizing the expression (18) as the evaluation expression. Thereafter, camera calibration is performed using the camera model parameter θ i included in the parameter μ and the pan value and the tilt value measured by the sensor CS i .
In Equation (18), “arg min” represents minimization, “||” represents a norm, u ^ ijkijj represents predicted image coordinates, and uijkijlj represents observed image coordinates.

Figure 0006622503
Figure 0006622503

<関係式を簡略化できる理由、予測画像座標の算出方法>
図7を参照し、式(14)を式(16)のように簡略化できる理由、及び、予測画像座標の算出方法について、説明する。
基準校正パターンP以外の校正パターンPについて、全ての特徴点の3次元座標系を基準校正パターン座標系ΣPwに変換する。この場合、校正パターンPの特徴点の3次元座標xは、式(19)で表すことができる。
<Reason for simplifying relational expression, calculation method of predicted image coordinates>
With reference to FIG. 7, the reason why the equation (14) can be simplified as the equation (16) and the method of calculating the predicted image coordinates will be described.
For calibration pattern P j other than the reference calibration pattern P w, it converts the 3-dimensional coordinate system of all the feature points in the reference calibration pattern coordinate system sigma Pw. In this case, the three-dimensional coordinate x of the feature point of the calibration pattern Pj can be expressed by Expression (19).

Figure 0006622503
Figure 0006622503

ここで、‘〜’が3次元座標xの同次座標系を表し、3次元座標を表すベクトルの座標系をベクトルの左上の添え字で表わす。つまり、校正パターン座標系ΣPjにおける3次元ベクトルは、Pjxとなる。この3次元ベクトルPjxを校正パターン座標系ΣPjから基準校正パターン座標系ΣPwに変換する式は、式(20)で表すことができる。 Here, “˜” represents the homogeneous coordinate system of the three-dimensional coordinate x, and the coordinate system of the vector representing the three-dimensional coordinate is represented by a subscript at the upper left of the vector. That is, the three-dimensional vector in the calibration pattern coordinate system ΣPj is Pj x. An expression for converting the three-dimensional vector Pj x from the calibration pattern coordinate system ΣPj to the reference calibration pattern coordinate system ΣPw can be expressed by Expression (20).

Figure 0006622503
Figure 0006622503

このように、各校正パターンPに含まれる特徴点の座標系を基準校正パターン座標系ΣPwに揃えることで、式(14)を式(16)のように簡略化できる。そして、式(21)を用いて、基準校正パターン座標系ΣPwにおける特徴点をカメラ座標系ΣCiに変換する。その後、カメラ座標系ΣCiにおける特徴点を画像に投影することで、予測画像座標を求めることができる。 Thus, to align the coordinate system of the feature points included in the calibration patterns P j on the reference calibration pattern coordinate system sigma Pw, equation (14) can be simplified as equation (16). Then, using equation (21), to convert the feature point in the reference calibration pattern coordinate system sigma Pw in the camera coordinate system sigma Ci. Thereafter, by projecting the feature points in the camera coordinate system sigma Ci to images, it is possible to obtain the predicted image coordinates.

Figure 0006622503
Figure 0006622503

具体的には、予測画像座標は、以下のように求められる。ここで、校正パターンPの特徴点lの座標(X,Y,Z)は、式(22)のように、カメラシステムCのカメラ座標(x,y,z)で表すことができる。また、式(22)のx,yから、式(23)のように、正規化画像座標un,i,vn,iが求められる。 Specifically, the predicted image coordinates are obtained as follows. Here, the coordinates (X, Y, Z) of the feature point l j of the calibration pattern P j can be expressed by the camera coordinates (x, y, z) of the camera system C i , as in Expression (22). . Also, normalized image coordinates u n, i , v n, i are obtained from x, y in equation (22), as in equation (23).

Figure 0006622503
Figure 0006622503

Figure 0006622503
Figure 0006622503

そして、前記した式(13)を用いて、正規化画像座標un,i,vn,iにレンズ歪みを反映させて、歪曲収差のあるレンズで撮影されたときの画像座標ud,i,vd,iを求める。その後、式(24)のように画像座標ud,i,vd,iを投影することで、予測画像座標u,vを求めることができる。 Then, the above-mentioned using equation (13), the normalized image coordinates u n, i, v n, to the lens distortion is reflected in i, the image coordinates u d when taken with the lens with distortion, i , V d, i are obtained. Thereafter, the predicted image coordinates u i and v i can be obtained by projecting the image coordinates u d, i , v d, i as shown in Expression (24).

Figure 0006622503
Figure 0006622503

[カメラ校正装置の構成]
図8を参照し、カメラ校正装置1の構成について、説明する。
カメラ校正装置1は、複数のカメラシステムC(C,…,C)で、複数の校正パターンPのそれぞれを撮影した撮影画像を用いて、カメラシステムCのカメラモデルパラメータを推定するものである。
図8のように、カメラ校正装置1は、同期信号生成部10と、情報記録部20と、カメラモデルパラメータ推定部30と、カメラ校正部40とを備える。
[Configuration of camera calibration device]
The configuration of the camera calibration apparatus 1 will be described with reference to FIG.
The camera calibration apparatus 1 estimates the camera model parameters of the camera system C i using the captured images obtained by capturing each of the plurality of calibration patterns P j with the plurality of camera systems C i (C 1 ,..., C n ). To do.
As shown in FIG. 8, the camera calibration apparatus 1 includes a synchronization signal generation unit 10, an information recording unit 20, a camera model parameter estimation unit 30, and a camera calibration unit 40.

カメラシステムCは、同期信号生成部10から入力された同期信号に従って、カメラ本体CBにより映像を取得し、センサCSによりセンサ値(パン値及びチルト値)を取得する。そして、カメラシステムCは、取得した映像及びセンサ値をカメラモデルパラメータ推定部30に出力する。さらに、カメラシステムCは、取得したセンサ値をカメラ校正部40に出力する。 The camera system C i acquires an image by the camera body CB i according to the synchronization signal input from the synchronization signal generation unit 10, and acquires a sensor value (pan value and tilt value) by the sensor CS i . Then, the camera system C i outputs the acquired video and sensor values to the camera model parameter estimation unit 30. Further, the camera system C i outputs the acquired sensor value to the camera calibration unit 40.

同期信号生成部10は、映像及びセンサ値を同期させるため、カメラシステムC(カメラ本体CB、雲台CP及びセンサCS)に同期信号を出力するものである。本実施形態では、同期信号生成部10は、カメラ本体CBが多視点映像を取得するので、全てのカメラシステムCに同一の同期信号を出力する。この同期信号によって、カメラ本体CBがセンサCSとが、映像とセンサ値とを同じタイミングで取得できる。 The synchronization signal generation unit 10 outputs a synchronization signal to the camera system C i (camera body CB i , pan head CP i and sensor CS i ) in order to synchronize the video and the sensor value. In the present embodiment, the synchronization signal generator 10, since the camera body CB i acquires the multi-view image, and outputs the same synchronization signal to all of the camera system C i. With this synchronization signal, the camera body CB i and the sensor CS i can acquire the image and the sensor value at the same timing.

情報記録部20は、各種情報を記録するメモリ、ハードディスク等の記録装置である。この情報記録部20は、カメラモデルパラメータの推定に必要な校正パターン情報を予め記録する。また、情報記録部20は、カメラモデルパラメータ推定部30から入力されたカメラモデルパラメータ情報を記録する。   The information recording unit 20 is a recording device such as a memory or a hard disk that records various types of information. The information recording unit 20 records in advance calibration pattern information necessary for camera model parameter estimation. The information recording unit 20 records the camera model parameter information input from the camera model parameter estimation unit 30.

カメラモデルパラメータ推定部30は、情報記録部20に記録された校正パターン情報を参照し、カメラシステムCのカメラモデルパラメータを推定するものである。そして、カメラモデルパラメータ推定部30は、推定したカメラモデルパラメータをカメラモデルパラメータ情報として情報記録部20に出力する。
なお、カメラモデルパラメータ推定部30の詳細は、後記する。
Camera model parameter estimation unit 30 refers to the calibration pattern information recorded in the information recording unit 20, and estimates the camera model parameters of the camera system C i. Then, the camera model parameter estimation unit 30 outputs the estimated camera model parameters to the information recording unit 20 as camera model parameter information.
Details of the camera model parameter estimation unit 30 will be described later.

カメラ校正部40は、カメラシステムCのカメラ校正を行って、カメラシステムCのカメラパラメータを出力するものである。このとき、カメラ校正部40は、情報記録部20に記録されたカメラモデルパラメータ情報と、カメラシステムCから入力されたセンサ値とを用いて、カメラ校正を行う。 Camera calibration unit 40 performs camera calibration of the camera system C i, and outputs the camera parameters of the camera system C i. In this case, the camera calibration unit 40 uses a camera model parameter information recorded in the information recording section 20, and a sensor value input from the camera system C i, performs camera calibration.

[カメラモデルパラメータ推定部の構成]
図9を参照し、カメラモデルパラメータ推定部30の構成について、説明する(適宜図8参照)。
図9のように、カメラモデルパラメータ推定部30は、映像入力部302と、センサ値入力部304と、フレーム同期部306と、撮影画像・センサ値記録部310と、情報選択部320と、特徴点抽出部330と、初期値生成部340と、最適化部350とを備える。
[Configuration of camera model parameter estimation unit]
With reference to FIG. 9, the structure of the camera model parameter estimation part 30 is demonstrated (refer FIG. 8 suitably).
As shown in FIG. 9, the camera model parameter estimation unit 30 includes a video input unit 302, a sensor value input unit 304, a frame synchronization unit 306, a captured image / sensor value recording unit 310, an information selection unit 320, and a feature. A point extraction unit 330, an initial value generation unit 340, and an optimization unit 350 are provided.

映像入力部302は、カメラシステムCから入力された映像を、フレーム毎の静止画像(撮影画像)に変換するものである。つまり、映像入力部302は、映像に含まれるフレーム画像のそれぞれを、撮影画像としてフレーム同期部306に出力する。 Image input unit 302, the image input from the camera system C i, and converts the still image for each frame (captured image). That is, the video input unit 302 outputs each frame image included in the video to the frame synchronization unit 306 as a captured image.

センサ値入力部304は、カメラシステムCから入力されたセンサ値(センサCSの計測信号)をカメラモデルパラメータ推定部30で扱えるようにするため、このセンサ値をテキストデータに変換するものである。そして、センサ値入力部304は、テキストデータに変換したセンサ値をフレーム同期部306に出力する。 The sensor value input unit 304 converts the sensor value into text data so that the camera model parameter estimation unit 30 can handle the sensor value (measurement signal of the sensor CS i ) input from the camera system C i. is there. Then, the sensor value input unit 304 outputs the sensor value converted to text data to the frame synchronization unit 306.

フレーム同期部306は、映像入力部302から入力された撮影画像と、センサ値入力部304から入力されたセンサ値とを同期させるものである。例えば、フレーム同期部306は、同一のタイムコードを有する撮影画像とセンサ値とを対応付ける。そして、フレーム同期部306は、同期した撮影画像及びセンサ値を撮影画像・センサ値記録部310に出力する。   The frame synchronization unit 306 synchronizes the captured image input from the video input unit 302 and the sensor value input from the sensor value input unit 304. For example, the frame synchronization unit 306 associates a captured image having the same time code with a sensor value. Then, the frame synchronization unit 306 outputs the synchronized captured image and sensor value to the captured image / sensor value recording unit 310.

撮影画像・センサ値記録部310は、フレーム同期部306から入力された撮影画像及びセンサ値を記録するメモリ、ハードディスク等の記録装置である。   The photographed image / sensor value recording unit 310 is a recording device such as a memory or a hard disk that records the photographed image and sensor value input from the frame synchronization unit 306.

情報選択部320は、撮影画像・センサ値記録部310に記憶された撮影画像及びセンサ値の組み合わせのうち、カメラモデルパラメータの推定に利用する撮影画像及びセンサ値の組み合わせを選択するものである。例えば、情報選択部320は、一定のフレーム毎に撮影画像及びセンサ値の組み合わせを自動で選択する。また、情報選択部320は、撮影画像及びセンサ値の組み合わせを手動で選択してもよい。その後、情報選択部320は、選択された組み合わせに含まれる撮影画像を特徴点抽出部330に出力し、選択された組み合わせに含まれるセンサ値を初期値生成部340及び最適化部350に出力する。   The information selection unit 320 selects a combination of a captured image and a sensor value to be used for camera model parameter estimation from among the combination of the captured image and the sensor value stored in the captured image / sensor value recording unit 310. For example, the information selection unit 320 automatically selects a combination of a captured image and a sensor value for each fixed frame. The information selection unit 320 may manually select a combination of the captured image and the sensor value. Thereafter, the information selection unit 320 outputs the captured image included in the selected combination to the feature point extraction unit 330, and outputs the sensor value included in the selected combination to the initial value generation unit 340 and the optimization unit 350. .

特徴点抽出部330は、情報選択部320より入力された撮影画像から特徴点を抽出するものである。例えば、特徴点抽出部330は、コーナー検出法等の特徴点抽出処理を撮影画像に施し、この撮影画像に含まれる校正パターンPの特徴点を抽出する。そして、特徴点抽出部330は、特徴点情報として、抽出した特徴点の座標(観測画像座標)を初期値生成部340に出力する。 The feature point extraction unit 330 extracts feature points from the captured image input from the information selection unit 320. For example, the feature point extraction unit 330 performs feature point extraction processing such as a corner detection method on the captured image, and extracts the feature points of the calibration pattern P j included in the captured image. Then, the feature point extraction unit 330 outputs the extracted feature point coordinates (observation image coordinates) to the initial value generation unit 340 as the feature point information.

初期値生成部340は、最適化を行うために必要な初期値を生成するものであり、初期値生成用カメラ校正部341と、第1外部パラメータ設定部343と、第2外部パラメータ算出部345と、第3外部パラメータ算出部347と、校正パターン関係式設定部349とを備える。   The initial value generation unit 340 generates initial values necessary for optimization, and includes an initial value generation camera calibration unit 341, a first external parameter setting unit 343, and a second external parameter calculation unit 345. And a third external parameter calculation unit 347 and a calibration pattern relational expression setting unit 349.

初期値生成用カメラ校正部341は、カメラ校正により、式(16)の内部パラメータθint,iの初期値と、第4外部パラメータCiPjとを算出するものである。ここで、初期値生成用カメラ校正部341は、特徴点抽出部330から入力された特徴点情報と、情報記録部20に記録された校正パターン情報とを用いて、カメラ校正を行う。 The initial value generation camera calibration unit 341 calculates the initial value of the internal parameter θ int, i of Expression (16) and the fourth external parameter Ci MP Pj by camera calibration. Here, the initial value generation camera calibration unit 341 performs camera calibration using the feature point information input from the feature point extraction unit 330 and the calibration pattern information recorded in the information recording unit 20.

例えば、初期値生成用カメラ校正部341は、カメラ校正として、下記の参考文献1に記載の手法を用いることができる。
参考文献1:Z.Zhang.A flexible new technique for camera calibration.IEEE Transactions on Pattern Analysis and Machine Intelligence,22(11),1330-1334.
For example, the camera calibration unit 341 for generating an initial value can use the technique described in Reference Document 1 below as camera calibration.
Reference 1: Z.Zhang.A flexible new technique for camera calibration.IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11), 1330-1334.

第1外部パラメータ設定部343は、第1外部パラメータCiPTiの初期値を設定するものである。例えば、第1外部パラメータ設定部343では、実測や経験則により、この第1外部パラメータCiPTiの初期値が手動で設定される。 The first external parameter setting unit 343 sets an initial value of the first external parameter Ci M PTi . For example, in the first external parameter setting unit 343, the initial value of the first external parameter Ci M PTi is manually set by actual measurement or empirical rule.

第2外部パラメータ算出部345は、第2外部パラメータCPiPjの初期値を算出するものである。この第2外部パラメータ算出部345は、変換式として予め設定された式(11)を用いて、第2外部パラメータCPiPj(ベクトル表記の場合CPθext(j))の初期値を逆算する。 Second external parameter calculator 345 is for calculating the initial value of the second external parameters CPi M Pj. The second external parameter calculation unit 345 calculates the initial value of the second external parameter CPi M Pj ( CP θ ext (j) in the case of vector notation) using Equation (11) set in advance as a conversion equation. .

具体的には、第2外部パラメータ算出部345は、初期値生成用カメラ校正部341が算出した第4外部パラメータCiPjと、第1外部パラメータ設定部343が設定した第1外部パラメータCiPTiの初期値と、後記する第3外部パラメータ算出部347が算出した行列PTiCPiとを式(11)に代入することで、第2外部パラメータCPiPjの初期値を逆算する。 Specifically, the second external parameter calculation unit 345 includes the fourth external parameter Ci M Pj calculated by the initial value generation camera calibration unit 341 and the first external parameter Ci M set by the first external parameter setting unit 343. By substituting the initial value of PTi and the matrix PTi M CPi calculated by the third external parameter calculation unit 347, which will be described later, into the equation (11), the initial value of the second external parameter CPi M Pj is calculated backward.

第3外部パラメータ算出部347は、情報選択部320より入力されたセンサ値から、第3外部パラメータPTiCPiを算出するものである。ここで、第3外部パラメータ算出部347は、式(10)にセンサ値を代入して回転行列PTiCPiを求め、式(9)を用いて第3外部パラメータPTiCPiを算出する。 The third external parameter calculation unit 347 calculates the third external parameter PTi M CPi from the sensor value input from the information selection unit 320. Here, the third external parameter calculation unit 347 obtains the rotation matrix PTi R CPi by substituting the sensor value into Expression (10), and calculates the third external parameter PTi M CPi using Expression (9).

校正パターン関係式設定部349は、校正パターン関係式ηの初期値を設定するものである。ここで、校正パターン関係式設定部349では、基準校正パターンPの位置が既知のため、あるカメラシステムCが各校正パターンPを向いたときのセンサ値を用いて、校正パターンPで座標系の関係を表す式(15)の初期値を設定する。 The calibration pattern relational expression setting unit 349 sets an initial value of the calibration pattern relational expression η j . Here, in the calibration pattern relationship setting unit 349, since the position of the reference calibration pattern P w it is known, using the sensor value when there camera system C i is facing the calibration patterns P j, the calibration pattern P j To set the initial value of equation (15) representing the relationship of the coordinate system.

例えば、校正パターン関係式設定部349は、校正パターン関係式ηの初期値として、校正パターンP,Pの関係PwP1を、PwP1PwCi´Ci´CiCiP1として設定する。ここで、PwCi´及びCiP1は、第4外部パラメータCiPjから求められる。また、Ci´Ciは、並進ベクトルを0で近似し、センサ値が示す回転行列から求められる。 For example, the calibration pattern relation setting unit 349 as an initial value of the calibration pattern relationship eta j, the relationship Pw M P1 of the calibration pattern P 1, P W, · Pw M P1 = Pw M Ci' · Ci' M Ci Set as Ci M P1 . Here, Pw M Ci and Ci M P1 are obtained from the fourth external parameter Ci M Pj . Ci M Ci is obtained from the rotation matrix indicated by the sensor value by approximating the translation vector with 0.

このようにして、初期値生成部340は、各カメラシステムCの式(16)の内部パラメータθint,iと、第1外部パラメータθext,iCiPTi)と、第2外部パラメータCPθext,iCPiPj)との初期値を求める。さらに、初期値生成部340は、式(15)のように、校正パターンPの間で座標系の関係を表す校正パターン関係式ηの初期値を求める。この結果、初期値生成部340は、式(17)のパラメータμの初期値を生成できる。その後、初期値生成部340は、生成した初期値と、特徴点情報とを最適化部350に出力する。 In this way, the initial value generation unit 340 includes the internal parameter θ int, i of the equation (16) of each camera system C i , the first external parameter C θ ext, i ( Ci M PTi ), and the second external parameter An initial value with the parameter CP θ ext, i ( CPi M Pj ) is obtained. Further, the initial value generation unit 340 obtains an initial value of a calibration pattern relational expression η j that represents the relationship of the coordinate system between the calibration patterns P j as shown in Expression (15). As a result, the initial value generation unit 340 can generate the initial value of the parameter μ in Expression (17). Thereafter, the initial value generation unit 340 outputs the generated initial value and the feature point information to the optimization unit 350.

最適化部350は、初期値生成部340から入力された特徴点情報及び初期値と、情報選択部320から入力されたセンサ値とを用いて、最適化を行うものである。この最適化部350は、予測画像座標算出部351と、カメラモデルパラメータ最適化部353とを備える。   The optimization unit 350 performs optimization using the feature point information and the initial value input from the initial value generation unit 340 and the sensor value input from the information selection unit 320. The optimization unit 350 includes a predicted image coordinate calculation unit 351 and a camera model parameter optimization unit 353.

予測画像座標算出部351は、情報記録部20に記憶された校正パターン情報を参照し、この校正パターン情報の特徴点の座標から予測画像座標を算出するものである。具体的には、予測画像座標算出部351は、式(13)及び式(22)〜式(24)を用いて、予測画像座標を算出する。   The predicted image coordinate calculation unit 351 refers to the calibration pattern information stored in the information recording unit 20, and calculates the predicted image coordinates from the coordinates of the feature points of the calibration pattern information. Specifically, the predicted image coordinate calculation unit 351 calculates the predicted image coordinates using Expression (13) and Expression (22) to Expression (24).

カメラモデルパラメータ最適化部353は、初期値生成部340から入力された特徴点情報(観測画像座標)及び初期値(式17)と、予測画像座標算出部351が算出した予測画像座標とを用いて、最適化(例えば、再投影誤差最小化)を行うものである。具体的には、カメラモデルパラメータ最適化部353は、観測画像座標と予測画像座標との距離が最小となるように式(18)を最適化することで、式(16)のカメラモデルパラメータθを推定する。そして、カメラモデルパラメータ最適化部353は、推定したカメラモデルパラメータθをカメラモデルパラメータ情報として情報記録部20に出力する。 The camera model parameter optimization unit 353 uses the feature point information (observation image coordinates) and the initial value (formula 17) input from the initial value generation unit 340 and the predicted image coordinates calculated by the predicted image coordinate calculation unit 351. Thus, optimization (for example, reprojection error minimization) is performed. Specifically, the camera model parameter optimization unit 353 optimizes the equation (18) so that the distance between the observed image coordinates and the predicted image coordinates is minimized, so that the camera model parameter θ in the equation (16) is obtained. i is estimated. Then, the camera model parameter optimization unit 353 outputs the estimated camera model parameter θ i to the information recording unit 20 as camera model parameter information.

[カメラ校正装置の動作]
図10を参照し、図8のカメラ校正装置1の動作について、説明する(適宜図8,図9参照)。
各カメラシステムC及び各校正パターンPを所定位置に配置する。また、カメラ校正装置1では、情報記録部20に校正パターン情報を予め記録する(ステップS0)。
なお、ステップS0の処理は、カメラ校正の準備作業であるため、破線で図示した。
[Operation of camera calibration device]
The operation of the camera calibration apparatus 1 in FIG. 8 will be described with reference to FIG. 10 (see FIGS. 8 and 9 as appropriate).
Each camera system C i and each calibration pattern P j are arranged at predetermined positions. In the camera calibration device 1, calibration pattern information is recorded in advance in the information recording unit 20 (step S0).
Note that the process of step S0 is illustrated by a broken line because it is a preparatory work for camera calibration.

カメラ校正装置1は、同期信号生成部10によって、同期信号を生成し、生成した同期信号をカメラシステムCへ入力する。
カメラ校正装置1は、映像入力部302によって、カメラシステムCから映像を取得し、フレーム毎の静止画像(撮影画像)に変換する。
カメラ校正装置1は、センサ値入力部304によって、カメラシステムCからセンサ値を取得し、テキストデータに変換する(ステップS1)。
Camera calibration device 1, the synchronization signal generator 10 generates a synchronization signal, and inputs the generated synchronization signal to the camera system C i.
The camera calibration apparatus 1 acquires a video from the camera system C i by the video input unit 302 and converts it into a still image (photographed image) for each frame.
Camera calibration device 1, the sensor value input unit 304, acquires a sensor value from the camera system C i, is converted into text data (step S1).

カメラ校正装置1は、フレーム同期部306によって、ステップS1で取得した撮影画像とセンサ値とを同期させる(ステップS2)。
カメラ校正装置1は、フレーム同期部306によって、ステップS2で同期させた撮影画像及びセンサ値の組み合わせを、撮影画像・センサ値記録部310に記録する(ステップS3)。
The camera calibration apparatus 1 uses the frame synchronization unit 306 to synchronize the captured image acquired in step S1 with the sensor value (step S2).
The camera calibration apparatus 1 records the combination of the captured image and the sensor value synchronized in step S2 in the captured image / sensor value recording unit 310 by the frame synchronization unit 306 (step S3).

カメラ校正装置1は、情報選択部320によって、ステップS3で記録された撮影画像及びセンサ値の組み合わせのうち、カメラモデルパラメータの推定に利用する撮影画像及びセンサ値の組み合わせを選択する(ステップS4)。   In the camera calibration device 1, the information selection unit 320 selects a combination of a captured image and a sensor value to be used for camera model parameter estimation from among the combination of the captured image and the sensor value recorded in Step S3 (Step S4). .

カメラ校正装置1は、特徴点抽出部330によって、ステップS4で選択された撮影画像から特徴点を抽出する(ステップS5)。
カメラ校正装置1は、初期値生成部340によって、初期値を生成する(ステップS6)。このステップS6の処理は、詳細を後記する。
In the camera calibration device 1, the feature point extraction unit 330 extracts feature points from the captured image selected in step S4 (step S5).
The camera calibration device 1 generates an initial value by the initial value generation unit 340 (step S6). Details of the process of step S6 will be described later.

カメラ校正装置1は、予測画像座標算出部351によって、予測画像座標を算出する。
カメラ校正装置1は、カメラモデルパラメータ最適化部353によって、ステップS6で生成した初期値と、特徴点情報と、予測画像座標と、校正パターン情報とを用いて最適化を行い、カメラモデルパラメータを推定する(ステップS7)。
カメラ校正装置1は、カメラ校正部40によって、ステップS7で推定したカメラモデルパラメータと、センサ値とを用いて、カメラ校正を行う(ステップS8)。
The camera calibration apparatus 1 calculates the predicted image coordinates by the predicted image coordinate calculation unit 351.
The camera calibration apparatus 1 optimizes the camera model parameter optimization unit 353 using the initial value generated in step S6, the feature point information, the predicted image coordinates, and the calibration pattern information, and sets the camera model parameter. Estimate (step S7).
The camera calibration device 1 performs camera calibration by using the camera model parameter estimated in step S7 and the sensor value by the camera calibration unit 40 (step S8).

<初期値の生成>
図11を参照し、図10のステップS6の処理について、説明する(適宜図9参照)。
カメラ校正装置1は、初期値生成用カメラ校正部341によって、カメラ校正を行い、内部パラメータθint,iの初期値と、第4外部パラメータCiPjとを算出する(ステップS61)。
<Generation of initial values>
With reference to FIG. 11, the process of step S6 of FIG. 10 will be described (see FIG. 9 as appropriate).
The camera calibration device 1 performs camera calibration by the initial value generation camera calibration unit 341, and calculates the initial value of the internal parameter θ int, i and the fourth external parameter Ci MPj (step S61).

カメラ校正装置1は、第1外部パラメータ設定部343によって、第1外部パラメータCiPTiの初期値を設定する(ステップS62)。
カメラ校正装置1は、第3外部パラメータ算出部347によって、ステップS4で選択されたセンサ値から、第3外部パラメータPTiCPiを算出する(ステップS63)。
The camera calibration apparatus 1 sets the initial value of the first external parameter Ci M PTi by the first external parameter setting unit 343 (step S62).
The camera calibration apparatus 1 calculates the third external parameter PTi M CPi from the sensor value selected in step S4 by the third external parameter calculation unit 347 (step S63).

カメラ校正装置1は、第2外部パラメータ算出部345によって、ステップS61で算出した第4外部パラメータCiPjと、ステップS62で設定した第1外部パラメータCiPTiの初期値と、ステップS63で算出した第3外部パラメータPTiCPとを式(11)に代入することで、第2外部パラメータCPiPjの初期値を算出する(ステップS64)。 In the camera calibration apparatus 1, the second external parameter calculation unit 345 calculates the fourth external parameter Ci M Pj calculated in step S61, the initial value of the first external parameter Ci M PTi set in step S62, and the calculation in step S63. The initial value of the second external parameter CPi M Pj is calculated by substituting the third external parameter PTi M CP into the equation (11) (step S64).

カメラ校正装置1は、校正パターン関係式設定部349によって、校正パターンPで座標系の関係を表す式(15)の初期値を設定する(ステップS65)。 Camera calibration device 1, the calibration pattern relation setting unit 349 sets an initial value of the formula (15) representing the relationship between the coordinate system calibration pattern P j (step S65).

以上のように、本願発明の第1実施形態に係るカメラ校正装置1は、校正パターンPで座標系の関係を表す式(15)を設定することで、複数のカメラシステムCで校正パターンPの位置関係を共有可能とし、より強い拘束条件をカメラモデルパラメータの推定に加えることができる。これによって、カメラ校正装置1は、高精度なカメラモデルパラメータを推定し、高速、高精度、かつ、安定性の高いカメラ校正が可能となる。その結果、カメラ校正装置1は、多視点映像に対し、実時間で様々な画像処理を施すことが可能となり、様々な用途への応用が期待される。 As described above, the camera calibration device 1 according to the first embodiment of the present invention sets the calibration pattern P j with the plurality of camera systems C i by setting the expression (15) representing the relationship of the coordinate system with the calibration pattern P j. The positional relationship of P j can be shared, and stronger constraint conditions can be added to the estimation of camera model parameters. As a result, the camera calibration apparatus 1 can estimate camera model parameters with high accuracy and perform camera calibration with high speed, high accuracy, and high stability. As a result, the camera calibration apparatus 1 can perform various image processing on the multi-viewpoint video in real time, and is expected to be applied to various uses.

(第2実施形態)
以下、本願発明の第2実施形態について、第1実施形態と異なる点を説明する。
前記した第1実施形態に係るカメラ校正装置1は、複数のカメラシステムCを用いて、複数の校正パターンPを様々な姿勢で撮影し、パラメータの個数が多い最適化問題を解く必要がある。このため、カメラ校正装置1では、カメラシステムCを設置した後、カメラモデルパラメータの推定が終わるまでに時間や手間がかかる。当然、撮影現場では、システムの設営に費やせる時間は限られており、時間や手間が少ない方が好ましい。
なお、ここではカメラシステムCを別の場所に設置することを移設と呼ぶ。例えば、カメラシステムCを10cm移動させた場合も、カメラシステムCの移設に該当する。
(Second Embodiment)
Hereinafter, the second embodiment of the present invention will be described while referring to differences from the first embodiment.
The camera calibration device 1 according to the first embodiment described above needs to shoot a plurality of calibration patterns P j in various postures using a plurality of camera systems C i and solve an optimization problem with a large number of parameters. is there. Therefore, the camera calibration device 1, after the setting of the camera system C i, it takes time and effort before the end of the estimation of the camera model parameters. Of course, at the shooting site, the time that can be spent on setting up the system is limited, and it is preferable that the time and effort be less.
Incidentally, herein referred to as relocated placing the camera system C i to another location. For example, moving the camera system C i by 10 cm also corresponds to the transfer of the camera system C i .

ここで、カメラモデルパラメータは、1台のカメラシステムCあたり、複数の外部パラメータ(第1外部パラメータθext,i及び第2外部パラメータCPθext,i)と、1つの内部パラメータθint,iとで構成される。 Here, the camera model parameter includes a plurality of external parameters (first external parameter C θ ext, i and second external parameter CP θ ext, i ) and one internal parameter θ int per camera system C i. , I.

これらパラメータのうち、第1外部パラメータθext,i及び内部パラメータθint,iは、世界座標系(つまり、カメラシステムCの配置)に依存しない。このため、第1外部パラメータθext,i及び内部パラメータθint,iは、カメラシステムCを別の場所に移設しても、そのまま使用可能である。 Among these parameters, the first external parameter C θ ext, i and the internal parameter θ int, i do not depend on the world coordinate system (that is, the arrangement of the camera system C i ). For this reason, the first external parameter C θ ext, i and the internal parameter θ int, i can be used as they are even if the camera system C i is moved to another location.

一方、第2外部パラメータCPθext,iは、世界座標系に依存するため、カメラシステムCを移設した場合、再度求める必要がある(第4外部パラメータも同様)。この第2外部パラメータCPθext,iは、1台のカメラシステムCあたり6個のパラメータで構成されるので、比較的簡単な最適化問題を解くことで得られる。 On the other hand, the second external parameters CP theta ext, i is (also fourth external parameters) because it depends on the world coordinate system, when the relocation of the camera system C i, it is necessary to ask again. Since the second external parameter CP θ ext, i is composed of 6 parameters per camera system C i, it can be obtained by solving a relatively simple optimization problem.

[設置カメラ校正]
まず、本願発明の第2実施形態におけるカメラ校正手法を説明した後、本願発明の第2実施形態に係るカメラ校正装置1Bの具体的構成を説明する。
第2実施形態の前提として、図12のように、第1実施形態の手法でカメラモデルパラメータを推定しておく必要がある。以後、第1実施形態の手法を「初期カメラ校正」と呼ぶ。
その後、初期カメラ校正で求めた第1外部パラメータθext,i及び内部パラメータθint,iを利用して、移設したカメラシステムCのカメラモデルパラメータを推定する。以後、第2実施形態で説明する手法を「設置カメラ校正」と呼ぶ。
[Installed camera calibration]
First, after describing the camera calibration method in the second embodiment of the present invention, a specific configuration of the camera calibration apparatus 1B according to the second embodiment of the present invention will be described.
As a premise of the second embodiment, it is necessary to estimate camera model parameters by the method of the first embodiment as shown in FIG. Hereinafter, the method of the first embodiment is referred to as “initial camera calibration”.
Thereafter, the camera model parameters of the transferred camera system C i are estimated using the first external parameter C θ ext, i and the internal parameter θ int, i obtained by the initial camera calibration. Hereinafter, the method described in the second embodiment is referred to as “installed camera calibration”.

なお、図12では、2台のカメラシステムC,Cに対し、初期カメラ校正では3個の校正パターンP,P,Pを使用し、設置カメラ校正では2個の校正パターンP,Pを使用している。
また、図12の設置カメラ校正では、既知の値となるパン・チルト座標系ΣPTiからカメラ座標系ΣCiへの変換(第1外部パラメータ)を破線矢印で図示した。また、最適化で求めるパラメータについては、実線矢印で図示した。
In FIG. 12, for two camera systems C 1 and C 2 , three calibration patterns P w , P 1 , and P 2 are used for initial camera calibration, and two calibration patterns P are used for installation camera calibration. w 1 and P 1 are used.
Further, in the camera set up calibration of FIG. 12, the conversion from the known values become pan-tilt coordinate system sigma PTi to the camera coordinate system sigma Ci (the first external parameter) illustrated by dashed arrows. Further, parameters obtained by optimization are illustrated by solid arrows.

以下、設置カメラ校正を詳細に説明する。
ここで、カメラシステムCがn台(i=1,…,n)、校正パターンPがm個(j=1,…,m)の場合を考える。一般的な外部パラメータは、回転角度が3個のパラメータ、並進ベクトルが3個のパラメータ、合計6個のパラメータで構成される。つまり、外部パラメータθextは、式(1)で表される。
Hereinafter, the installation camera calibration will be described in detail.
Here, consider a case where there are n camera systems C i (i = 1,..., N) and m calibration patterns P j (j = 1,..., M). General external parameters are composed of a total of six parameters, three parameters for the rotation angle and three parameters for the translation vector. That is, the external parameter θ ext is expressed by the equation (1).

Figure 0006622503
Figure 0006622503

図13のように、ある1台のカメラシステムCについて考えた場合、校正パターン座標系ΣPjから雲台座標系ΣCPiへ変換する第2外部パラメータをCPθext,i(j)として表す。つまり、カメラシステムCにおいて推定すべきパラメータは、式(25)で表される。ここで、設置カメラ校正では、初期カメラ校正とは異なり、内部パラメータθint,i、第1外部パラメータθext,iが既知の固定値として扱われるため、式(25)に含まれない。 As shown in FIG. 13, when considering for a single camera system C i, representing the second external parameters for converting from the calibration pattern coordinate system sigma Pj to the camera platform coordinate system Σ CPi CP θ ext, as i (j) . That is, the parameter to be estimated in the camera system C i is expressed by Expression (25). Here, in the installed camera calibration, unlike the initial camera calibration, the internal parameter θ int, i and the first external parameter C θ ext, i are handled as known fixed values, and thus are not included in the equation (25).

Figure 0006622503
Figure 0006622503

なお、図13では、既知の値となるパン・チルト座標系ΣPTiからカメラ座標系ΣCiへの変換(第1外部パラメータ)と、雲台座標系ΣCPiからパン・チルト座標系ΣPTiへの変換(第3外部パラメータ)とを破線矢印で図示した。 In FIG. 13, the conversion from the known values pan-tilt coordinate system sigma PTi to the camera coordinate system sigma Ci (first external parameter), the camera platform coordinate system sigma CPi to pan-tilt coordinate system sigma PTi The conversion (third external parameter) is indicated by a broken-line arrow.

校正パターン関係式ηは、外部パラメータと同様、回転角度が3個のパラメータ、並進ベクトルが3個のパラメータで構成される。カメラシステムCの移設後、校正パターンPの中から1個を新しい基準校正パターン(世界座標)Pとして設定する。ここで、w番目の校正パターンPを基準校正パターンPとして設定した場合を考える(1≦w≦m)。この場合、基準校正パターンPと別の校正パターンPの関係式ηは、式(15)で表される。 Similarly to the external parameters, the calibration pattern relational expression η j is composed of three parameters for the rotation angle and three parameters for the translation vector. After relocation of the camera system C i, the calibration pattern P j new reference calibration pattern one from among (world coordinates) is set as P w. Here, consider a case where the w-th calibration pattern P j is set as the reference calibration pattern P w (1 ≦ w ≦ m). In this case, the reference calibration pattern P w and equation eta j of another calibration pattern P j is expressed by Equation (15).

Figure 0006622503
Figure 0006622503

カメラシステムCについて、推定すべき第2外部パラメータCPθext,i(w)は、新しい基準校正パターンPとの関係を求めればよいので、式(26)で表される。以上より、最適化で評価すべきパラメータμは、式(27)で表される。 For the camera system C i , the second external parameter CP θ ext, i (w) to be estimated has only to be obtained from the relationship with the new reference calibration pattern P w, and is expressed by the equation (26). As described above, the parameter μ to be evaluated by the optimization is expressed by Expression (27).

Figure 0006622503
Figure 0006622503

Figure 0006622503
Figure 0006622503

カメラシステムCでパン・チルトを変化させ、ある姿勢kijで校正パターンPを撮影したこととする。このとき、式(27)のパラメータμは、全て観測画像座標と予測画像座標との距離を求め、求めた距離の2乗和を最小化することで求められる。つまり、パラメータμは、評価式としての式(28)を最適化することで求められる。 It is assumed that the pan / tilt is changed by the camera system C i and the calibration pattern P j is photographed with a certain posture k ij . At this time, the parameters μ in Expression (27) are all obtained by obtaining the distance between the observed image coordinates and the predicted image coordinates and minimizing the sum of squares of the obtained distances. That is, the parameter μ is obtained by optimizing the expression (28) as the evaluation expression.

Figure 0006622503
Figure 0006622503

[カメラ校正装置の構成]
図14を参照し、カメラ校正装置1Bの構成について、説明する。
カメラ校正装置1Bは、初期カメラ校正で求めた第1外部パラメータθext,i及び内部パラメータθint,iを利用して、移設したカメラシステムCのカメラモデルパラメータを推定するものである。
図14のように、カメラ校正装置1Bは、同期信号生成部10と、情報記録部20Bと、カメラモデルパラメータ推定部30Bと、カメラ校正部40とを備える。
[Configuration of camera calibration device]
The configuration of the camera calibration apparatus 1B will be described with reference to FIG.
The camera calibration apparatus 1B estimates the camera model parameters of the relocated camera system C i using the first external parameter C θ ext, i and the internal parameter θ int, i obtained in the initial camera calibration.
As illustrated in FIG. 14, the camera calibration apparatus 1B includes a synchronization signal generation unit 10, an information recording unit 20B, a camera model parameter estimation unit 30B, and a camera calibration unit 40.

情報記録部20Bは、初期カメラ校正で求めた第1外部パラメータθext,i及び内部パラメータθint,iを記録する。この第1外部パラメータθext,i及び内部パラメータθint,iは、設置カメラ校正の際、カメラモデルパラメータ推定部30Bにより参照される。
他の点、情報記録部20Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The information recording unit 20B records the first external parameter C θ ext, i and the internal parameter θ int, i obtained by the initial camera calibration. The first external parameter C θ ext, i and the internal parameter θ int, i are referred to by the camera model parameter estimation unit 30B when the installed camera is calibrated.
The other points, the information recording unit 20B, are the same as those in the first embodiment, and thus further description thereof is omitted.

カメラモデルパラメータ推定部30Bは、情報記録部20に記録された第1外部パラメータθext,i及び内部パラメータθint,iを参照し、移設したカメラシステムCのカメラモデルパラメータを推定するものである。そして、カメラモデルパラメータ推定部30Bは、推定したカメラモデルパラメータをカメラモデルパラメータ情報として情報記録部20Bに出力する。 The camera model parameter estimation unit 30B refers to the first external parameter C θ ext, i and the internal parameter θ int, i recorded in the information recording unit 20, and estimates the camera model parameter of the relocated camera system C i It is. Then, the camera model parameter estimation unit 30B outputs the estimated camera model parameters to the information recording unit 20B as camera model parameter information.

[カメラモデルパラメータ推定部の構成]
図15を参照し、カメラモデルパラメータ推定部30Bの構成について、説明する(適宜図14参照)。
図15のように、カメラモデルパラメータ推定部30Bは、映像入力部302と、センサ値入力部304と、フレーム同期部306と、撮影画像・センサ値記録部310と、情報選択部320と、特徴点抽出部330と、初期値生成部340Bと、最適化部350Bとを備える。
[Configuration of camera model parameter estimation unit]
The configuration of the camera model parameter estimation unit 30B will be described with reference to FIG. 15 (see FIG. 14 as appropriate).
As shown in FIG. 15, the camera model parameter estimation unit 30B includes a video input unit 302, a sensor value input unit 304, a frame synchronization unit 306, a captured image / sensor value recording unit 310, an information selection unit 320, and a feature. A point extraction unit 330, an initial value generation unit 340B, and an optimization unit 350B are provided.

初期値生成部340Bは、初期値生成用カメラ校正部341Bと、第1外部パラメータ設定部343と、第2外部パラメータ算出部345Bと、第3外部パラメータ算出部347と、校正パターン関係式設定部349とを備える。
なお、初期値生成部340Bは、設置カメラ校正の際、第1外部パラメータ設定部343を備えなくてもよいため、破線で図示した。
The initial value generation unit 340B includes an initial value generation camera calibration unit 341B, a first external parameter setting unit 343, a second external parameter calculation unit 345B, a third external parameter calculation unit 347, and a calibration pattern relational expression setting unit. 349.
The initial value generation unit 340B is illustrated with a broken line because it does not have to include the first external parameter setting unit 343 when the installed camera is calibrated.

初期値生成用カメラ校正部341Bは、カメラ校正により、第4外部パラメータCiPjを算出するものである。つまり、初期値生成用カメラ校正部341Bは、内部パラメータθint,iの初期値を算出しない以外、第1実施形態と同様のため、これ以上の説明を省略する。 The initial value generation camera calibration unit 341B is the camera calibration, and calculates a fourth external parameter Ci M Pj. That is, since the initial value generation camera calibration unit 341B is the same as that of the first embodiment except that the initial value of the internal parameter θ int, i is not calculated, further description thereof is omitted.

第2外部パラメータ算出部345Bは、初期値生成用カメラ校正部341Bが算出した第4外部パラメータCiPjと、情報記録部20に記録された第1外部パラメータCiPTi及び第3外部パラメータPTiCPiとを式(11)に代入することで、第2外部パラメータCPiPjの初期値を逆算するものである。
なお、第2外部パラメータ算出部345Bは、第1実施形態と同様の処理を行うため、これ以上の説明を省略する。
Second external parameter calculator 345B includes a fourth external parameters Ci M Pj and the first external parameters recorded on the information recording section 20 Ci M PTi and the third external parameters PTi initial value generation camera calibration unit 341B has calculated and M CPi by substituting the equation (11) is for calculating back the initial value of the second external parameters CPi M Pj.
Note that the second external parameter calculation unit 345B performs the same processing as in the first embodiment, and thus further description thereof is omitted.

このようにして、初期値生成部340Bは、移設したカメラシステムCについて、式(26)の第2外部パラメータCPθext,i(w)の初期値を求める。さらに、初期値生成部340Bは、式(15)のように、校正パターンPの間で座標系の関係を表す校正パターン関係式ηの初期値を求める。この結果、初期値生成部340Bは、式(27)のパラメータμの初期値を生成できる。その後、初期値生成部340Bは、生成した初期値と、特徴点情報とを最適化部350Bに出力する。 In this way, the initial value generation unit 340B obtains the initial value of the second external parameter CP θ ext, i (w) of Expression (26) for the moved camera system C i . Further, the initial value generation unit 340B obtains an initial value of a calibration pattern relational expression η j that represents the relationship of the coordinate system between the calibration patterns P j as shown in Expression (15). As a result, the initial value generation unit 340B can generate the initial value of the parameter μ in Expression (27). Thereafter, the initial value generation unit 340B outputs the generated initial value and feature point information to the optimization unit 350B.

最適化部350Bは、予測画像座標算出部351と、カメラモデルパラメータ最適化部353Bとを備える。
カメラモデルパラメータ最適化部353Bは、観測画像座標と予測画像座標との距離が最小となるように式(28)を最適化することで、式(26)のカメラモデルパラメータθ(第2外部パラメータ)を推定する。そして、カメラモデルパラメータ最適化部353Bは、推定したカメラモデルパラメータθと、初期カメラ校正で求めた第1外部パラメータCiPTi及び内部パラメータθint,iとを、カメラモデルパラメータ情報として情報記録部20Bに出力する。
The optimization unit 350B includes a predicted image coordinate calculation unit 351 and a camera model parameter optimization unit 353B.
The camera model parameter optimizing unit 353B optimizes the equation (28) so that the distance between the observed image coordinates and the predicted image coordinates is minimized, so that the camera model parameter θ i (second external) of the equation (26) is obtained. Parameter). Then, the camera model parameter optimization unit 353B records the estimated camera model parameter θ i , the first external parameter Ci M PTi and the internal parameter θ int, i obtained by the initial camera calibration as camera model parameter information. To the unit 20B.

[カメラ校正装置の動作]
図16を参照し、図14のカメラ校正装置1Bの動作について、説明する(適宜図14,図15参照)。
ここでは、初期カメラ校正で求めた第1外部パラメータθext,i及び内部パラメータθint,iが情報記録部20Bに記録されていることとする。
[Operation of camera calibration device]
The operation of the camera calibration device 1B of FIG. 14 will be described with reference to FIG. 16 (see FIGS. 14 and 15 as appropriate).
Here, it is assumed that the first external parameter C θ ext, i and the internal parameter θ int, i obtained by the initial camera calibration are recorded in the information recording unit 20B.

カメラ校正装置1は、初期値生成部340Bによって、初期値を生成する(ステップS6B)。このステップS6Bの処理は、詳細を後記する。   The camera calibration device 1 generates an initial value by the initial value generation unit 340B (step S6B). Details of the process of step S6B will be described later.

カメラ校正装置1は、予測画像座標算出部351によって、予測画像座標を算出する。
カメラ校正装置1は、カメラモデルパラメータ最適化部353Bによって、前記した式(28)を最適化することで、式(26)のカメラモデルパラメータθ(第2外部パラメータ)を推定する(ステップS7B)。
The camera calibration apparatus 1 calculates the predicted image coordinates by the predicted image coordinate calculation unit 351.
The camera calibration apparatus 1 estimates the camera model parameter θ i (second external parameter) of the equation (26) by optimizing the above equation (28) by the camera model parameter optimization unit 353B (step S7B). ).

<初期値の生成>
図17を参照し、図16のステップS6Bの処理について、説明する(適宜図15参照)。
カメラ校正装置1は、初期値生成用カメラ校正部341Bによって、カメラ校正を行い、第4外部パラメータCiPjを算出する(ステップS61B)。
<Generation of initial values>
With reference to FIG. 17, the process of step S6B of FIG. 16 will be described (see FIG. 15 as appropriate).
Camera calibration device 1, by the initial value generation camera calibration unit 341B, performs camera calibration, to calculate a fourth external parameter Ci M Pj (step S61B).

カメラ校正装置1は、第2外部パラメータ算出部345Bによって、ステップS61Bで算出した第4外部パラメータCiPjと、情報記録部20Bに記録された第1外部パラメータCiPTiと、ステップS63で算出した第3外部パラメータPTiCPとを式(11)に代入することで、第2外部パラメータCPiPjの初期値を算出する(ステップS64B)。 The camera calibration apparatus 1 calculates the fourth external parameter Ci M Pj calculated in step S61B, the first external parameter Ci M PTi recorded in the information recording unit 20B, and the second external parameter calculation unit 345B in step S63. The initial value of the second external parameter CPi M Pj is calculated by substituting the third external parameter PTi M CP into the equation (11) (step S64B).

以上のように、本願発明の第2実施形態に係るカメラ校正装置1Bは、初期カメラ校正よりも推定するパラメータの個数が少なくなるため、使用する校正パターンPの個数やカメラシステムCが各校正パターンPを撮影する際の姿勢数を減少させることができる。さらに、カメラ校正装置1Bは、最適化処理の時間も削減できるので、撮影現場における時間や手間が大幅に削減でき、運用性が向上する。 As described above, the camera calibration apparatus 1B according to the second embodiment of the present invention requires fewer parameters to be estimated than the initial camera calibration, so that the number of calibration patterns P j to be used and the camera system C i are different. The number of postures when photographing the calibration pattern Pj can be reduced. Furthermore, since the camera calibration apparatus 1B can reduce the time for the optimization process, the time and labor at the photographing site can be greatly reduced, and the operability is improved.

以上、本願発明の各実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As mentioned above, although each embodiment of this invention was explained in full detail, this invention is not limited to above-described embodiment, The design change etc. of the range which does not deviate from the summary of this invention are also included.

前記した各実施形態では、本願発明で利用可能な校正パターンPとして、図3のチェッカーボードパターンを例示したが、これに限定されない。例えば、本願発明で利用可能な校正パターンPとして、ドットパターンがあげられる。 In the embodiments described above, as a calibration pattern P j available in the present invention has been illustrated checkerboard pattern of FIG. 3, but is not limited thereto. For example, the calibration pattern P j available in the present invention, the dot pattern can be mentioned.

また、特徴点の配置及び数が既知であれば、異なる種類の各校正パターンPが混在してもよい。例えば、校正パターンPとして、チェッカーボードパターン及びドットパターンが混在してもよい。また、校正パターンPは、同種のチェッカーボードパターンであっても、特徴点の数や間隔が異なってもよい。 Further, if the arrangement and number of feature points are known, different types of calibration patterns Pj may be mixed. For example, the calibration pattern P j, checkerboard pattern and a dot pattern may be mixed. Further, the calibration pattern P j may be the same type of checkerboard pattern, or the number of feature points and the interval may be different.

また、各校正パターンPは、全てのカメラシステムCから見えていれば、その位置や向きが制限されない。図2のように、各校正パターンPは、横一直線で同じ向きに配置してもよい。また、各校正パターンPは、全てのカメラシステムCから見える範囲内で様々な位置や向きに配置すると、カメラシステムCの様々な姿勢に対応できるため好ましい。 Further, as long as each calibration pattern P j is visible from all the camera systems C i , its position and orientation are not limited. As shown in FIG. 2, the calibration patterns Pj may be arranged in the same direction on a horizontal straight line. Further, it is preferable that each calibration pattern P j is arranged at various positions and orientations within a range that can be seen from all the camera systems C i because it can correspond to various postures of the camera system C i .

前記した各実施形態では、カメラシステムCを多視点カメラであることとして説明したが、これに限定されない。例えば、本願発明は、同一の撮影スタジオや撮影エリア内に配置された複数のカメラシステムCにも適用することができる。 In the embodiments described above, it has been described that the camera system C i is a multi-view camera is not limited thereto. For example, the present invention can also be applied to the same film studios and a plurality of camera systems located within the imaging area, C i.

ここで、カメラシステムCが多視点カメラでない場合、同期信号生成部10は、異なるカメラシステムCには同一の同期信号を出力せずともよい。しかし、同期信号生成部10は、1台のカメラシステムCに含まれるカメラ本体CB、雲台CP及びセンサCSには、同一の同期信号を出力する必要がある。 Here, when the camera system C i is not a multi-view camera, the synchronization signal generation unit 10 may not output the same synchronization signal to different camera systems C i . However, the synchronization signal generation unit 10 needs to output the same synchronization signal to the camera body CB i , the camera platform CP i, and the sensor CS i included in one camera system C i .

前記した第2実施形態では、初期カメラ校正で求めた第1外部パラメータθext,i及び内部パラメータθint,iを利用することとして説明したが、本願発明は、これに限定されない。例えば、本願発明は、初期カメラ校正で求めた第1外部パラメータθext,iのみを利用し、設置カメラ校正の際、内部パラメータθint,iを求めてもよい。 In the second embodiment described above, the first external parameter C θ ext, i and the internal parameter θ int, i obtained by the initial camera calibration have been described. However, the present invention is not limited to this. For example, the present invention may use only the first external parameter C θ ext, i obtained by the initial camera calibration, and obtain the internal parameter θ int, i during the installation camera calibration.

前記した各実施形態では、カメラ校正装置1,1Bを独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、カメラ校正装置1,1Bは、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるカメラ校正プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In each of the embodiments described above, the camera calibration devices 1 and 1B have been described as independent hardware, but the present invention is not limited to this. For example, the camera calibration devices 1 and 1B can be realized by a camera calibration program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate in cooperation with each other as described above. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

1,1B カメラ校正装置
10 同期信号生成部
20,20B 情報記録部
30,30B カメラモデルパラメータ推定部
40 カメラ校正部
302 映像入力部
304 センサ値入力部
306 フレーム同期部
310 画像・センサ値記録部
320 情報選択部
330 特徴点抽出部
340,340B 初期値生成部
341,341B 初期値生成用カメラ校正部
343 第1外部パラメータ設定部
345,345B 第2外部パラメータ算出部
347 第3外部パラメータ算出部
349 校正パターン関係式設定部
350,350B 最適化部
351 予測画像座標算出部
353,353B カメラモデルパラメータ最適化部
カメラシステム(撮影カメラ)
1, 1B Camera calibration apparatus 10 Synchronization signal generation unit 20, 20B Information recording unit 30, 30B Camera model parameter estimation unit 40 Camera calibration unit 302 Video input unit 304 Sensor value input unit 306 Frame synchronization unit 310 Image / sensor value recording unit 320 Information selection unit 330 Feature point extraction unit 340, 340B Initial value generation unit 341, 341B Initial value generation camera calibration unit 343 First external parameter setting unit 345, 345B Second external parameter calculation unit 347 Third external parameter calculation unit 349 Calibration pattern relation setting unit 350,350B optimization unit 351 predicted image coordinate calculation unit 353,353B camera model parameter optimization unit C i camera system (imaging camera)

Claims (5)

複数の撮影カメラで複数の校正パターンを撮影した撮影画像を用いて、前記撮影カメラのカメラモデルパラメータを推定するカメラモデルパラメータ推定装置であって、
前記撮影画像毎に、前記撮影画像から前記校正パターンの特徴点を抽出し、抽出した前記特徴点の座標である観測画像座標を出力する特徴点抽出部と、
カメラ校正により、前記撮影カメラ毎の内部パラメータの初期値を算出する初期値生成用カメラ校正部と、
前記撮影カメラ毎に、撮影原点からパン・チルトした前記撮影カメラを搭載する雲台におけるパン・チルト座標系を、前記撮影原点からパン・チルトした前記撮影カメラの光学中心におけるカメラ座標系に変換する第1外部パラメータの初期値を設定する第1外部パラメータ設定部と、
前記撮影カメラ毎に、前記校正パターンのうち予め設定した1つの基準校正パターンにおける基準校正パターン座標系を、前記撮影原点を向いた前記撮影カメラを搭載する雲台における雲台座標系に変換する第2外部パラメータの初期値を算出する第2外部パラメータ算出部と、
前記校正パターンの間で座標系の関係を表す校正パターン関係式の初期値を予め設定する校正パターン関係式設定部と、
前記校正パターンに含まれる特徴点の座標を表す校正パターン情報が予め設定され、前記校正パターン情報の特徴点の座標から、前記校正パターンを向いた前記撮影カメラで撮影された画像に含まれる特徴点の座標を予測した予測画像座標を算出する予測画像座標算出部と、
前記観測画像座標と前記予測画像座標との距離が最小となるように、前記内部パラメータと前記第1外部パラメータと前記第2外部パラメータとからなる前記カメラモデルパラメータ及び前記校正パターン関係式が含まれる評価式を最適化することで、前記カメラモデルパラメータを推定するカメラモデルパラメータ最適化部と、
を備えることを特徴とするカメラモデルパラメータ推定装置。
A camera model parameter estimation device for estimating camera model parameters of the photographing camera using photographed images obtained by photographing a plurality of calibration patterns with a plurality of photographing cameras,
A feature point extraction unit that extracts feature points of the calibration pattern from the photographed image for each photographed image and outputs observation image coordinates that are coordinates of the extracted feature points;
By camera calibration, an initial value generation camera calibration unit that calculates an initial value of an internal parameter for each photographing camera;
A pan / tilt coordinate system in a pan / tilt mounted with the photographing camera panned / tilted from the photographing origin is converted into a camera coordinate system at the optical center of the photographing camera panned / tilted from the photographing origin for each photographing camera. A first external parameter setting unit for setting an initial value of the first external parameter;
For each of the photographing cameras, a reference calibration pattern coordinate system in one of the calibration patterns set in advance is converted into a pan head coordinate system in a pan head on which the photographing camera facing the photographing origin is mounted. A second external parameter calculation unit for calculating an initial value of the two external parameters;
A calibration pattern relational expression setting unit that presets an initial value of a calibration pattern relational expression that represents a coordinate system relationship between the calibration patterns;
Calibration pattern information representing the coordinates of feature points included in the calibration pattern is preset, and feature points included in an image captured by the imaging camera facing the calibration pattern from the coordinates of the feature points of the calibration pattern information A predicted image coordinate calculation unit that calculates predicted image coordinates obtained by predicting the coordinates of
The camera model parameter and the calibration pattern relational expression including the internal parameter, the first external parameter, and the second external parameter are included so that the distance between the observed image coordinate and the predicted image coordinate is minimized. A camera model parameter optimizing unit for estimating the camera model parameter by optimizing the evaluation formula;
A camera model parameter estimation device comprising:
前記校正パターンを向いた前記撮影カメラのパン値及びチルト値から、前記雲台座標系を前記パン・チルト座標系に変換する第3外部パラメータを算出する第3外部パラメータ算出部、をさらに備え、
前記初期値生成用カメラ校正部は、前記カメラ校正により、前記校正パターンにおける校正パターン座標系を前記カメラ座標系に変換する第4外部パラメータを、さらに算出し、
前記第2外部パラメータ算出部は、
前記第4外部パラメータに対して、前記第1外部パラメータと前記第2外部パラメータと前記第3外部パラメータとを関係付けた変換式が予め設定され、
前記変換式に前記第1外部パラメータの初期値と前記第3外部パラメータと前記第4外部パラメータとを代入することで、前記第2外部パラメータの初期値を算出することを特徴とする請求項1に記載のカメラモデルパラメータ推定装置。
A third external parameter calculator for calculating a third external parameter for converting the pan head coordinate system to the pan / tilt coordinate system from the pan value and tilt value of the photographing camera facing the calibration pattern;
The initial value generation camera calibration unit further calculates a fourth external parameter for converting the calibration pattern coordinate system in the calibration pattern into the camera coordinate system by the camera calibration,
The second external parameter calculation unit includes:
A conversion equation that associates the first external parameter, the second external parameter, and the third external parameter with respect to the fourth external parameter is preset,
The initial value of the second external parameter is calculated by substituting the initial value of the first external parameter, the third external parameter, and the fourth external parameter into the conversion formula. The camera model parameter estimation apparatus described in 1.
前記特徴点抽出部は、前記撮影カメラとして、同一の被写体を異なる視点で撮影する多視点カメラから、前記撮影画像が入力されることを特徴とする請求項1又は請求項2に記載のカメラモデルパラメータ推定装置。   3. The camera model according to claim 1, wherein the feature point extraction unit receives the photographed image from a multi-viewpoint camera that photographs the same subject from different viewpoints as the photographing camera. Parameter estimation device. 前記第2外部パラメータ算出部は、移設した前記撮影カメラについて、前記第2外部パラメータの初期値を算出し、
前記カメラモデルパラメータ最適化部は、前記移設した撮影カメラの第2外部パラメータからなる前記カメラモデルパラメータ及び前記校正パターン関係式が含まれる評価式を最適化することで、前記移設した撮影カメラのカメラモデルパラメータを推定することを特徴とする請求項1から請求項3の何れか一項に記載のカメラモデルパラメータ推定装置。
The second external parameter calculation unit calculates an initial value of the second external parameter for the moved shooting camera,
The camera model parameter optimizing unit optimizes an evaluation formula including the camera model parameter and the calibration pattern relational expression, which are composed of second external parameters of the moved photographing camera, so that the camera of the moved photographing camera The camera model parameter estimation apparatus according to any one of claims 1 to 3, wherein the model parameter is estimated.
コンピュータを、請求項1から請求項4の何れか一項に記載のカメラモデルパラメータ推定装置として機能させるためのカメラモデルパラメータ推定プログラム。   The camera model parameter estimation program for functioning a computer as a camera model parameter estimation apparatus as described in any one of Claims 1-4.
JP2015152083A 2014-11-25 2015-07-31 Camera model parameter estimation apparatus and program thereof Active JP6622503B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014237691 2014-11-25
JP2014237691 2014-11-25

Publications (2)

Publication Number Publication Date
JP2016105577A JP2016105577A (en) 2016-06-09
JP6622503B2 true JP6622503B2 (en) 2019-12-18

Family

ID=56102618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152083A Active JP6622503B2 (en) 2014-11-25 2015-07-31 Camera model parameter estimation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6622503B2 (en)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109040552B (en) 2013-06-13 2021-06-22 核心光电有限公司 Dual Aperture Zoom Digital Camera
WO2015001440A1 (en) 2013-07-04 2015-01-08 Corephotonics Ltd. Miniature telephoto lens assembly
CN108718376B (en) 2013-08-01 2020-08-14 核心光电有限公司 Thin multi-aperture imaging system with auto-focus and method of use thereof
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
WO2016108093A1 (en) 2015-01-03 2016-07-07 Corephotonics Ltd. Miniature telephoto lens module and a camera utilizing such a lens module
CN112672022B (en) 2015-08-13 2022-08-02 核心光电有限公司 Dual aperture zoom camera with video support and switching/non-switching dynamic control
EP3758356B1 (en) 2016-05-30 2021-10-20 Corephotonics Ltd. Actuator
KR101939958B1 (en) 2016-06-19 2019-01-17 코어포토닉스 리미티드 Frame synchronization in a dual-aperture camera system
US10845565B2 (en) 2016-07-07 2020-11-24 Corephotonics Ltd. Linear ball guided voice coil motor for folded optic
KR102269547B1 (en) 2016-12-28 2021-06-25 코어포토닉스 리미티드 Folded camera structure with extended light-folding-element scanning range
EP4145206A1 (en) 2017-01-12 2023-03-08 Corephotonics Ltd. Compact folded camera
EP4357832B1 (en) 2017-03-15 2025-12-24 Corephotonics Ltd. Camera with panoramic scanning range
CN110447220B (en) * 2017-03-21 2021-03-09 奥林巴斯株式会社 Calibration device, calibration method, optical device, photography device, and projection device
KR102104761B1 (en) 2017-11-23 2020-04-27 코어포토닉스 리미티드 Compact folded camera structure
CN114609746A (en) 2018-02-05 2022-06-10 核心光电有限公司 Folding camera device
CN113467031B (en) 2018-02-12 2023-07-14 核心光电有限公司 Folded camera with optical image stabilization, digital camera and method
US11268829B2 (en) 2018-04-23 2022-03-08 Corephotonics Ltd Optical-path folding-element with an extended two degree of freedom rotation range
JP7204346B2 (en) * 2018-06-05 2023-01-16 キヤノン株式会社 Information processing device, system, information processing method and program
WO2020039302A1 (en) 2018-08-22 2020-02-27 Corephotonics Ltd. Two-state zoom folded camera
JP7173825B2 (en) * 2018-10-22 2022-11-16 キヤノン株式会社 Camera system, its control method and program
CN111971956B (en) 2019-03-09 2021-12-03 核心光电有限公司 Method and system for dynamic stereo calibration
CN121309748A (en) 2019-07-31 2026-01-09 核心光电有限公司 Method for creating background blur in camera panning or motion
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
WO2021165764A1 (en) 2020-02-22 2021-08-26 Corephotonics Ltd. Split screen feature for macro photography
KR102438490B1 (en) * 2020-03-12 2022-09-01 주식회사 멀티플아이 Method and apparatus for calibrating heterogeneous sensors using a single checkerboard
WO2021220080A1 (en) 2020-04-26 2021-11-04 Corephotonics Ltd. Temperature control for hall bar sensor correction
KR20240096759A (en) 2020-05-17 2024-06-26 코어포토닉스 리미티드 Image stitching in the presence of a full field of view reference image
KR102617779B1 (en) 2020-05-30 2023-12-22 코어포토닉스 리미티드 System and method for obtaining super macro images
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
CN119583939A (en) 2020-07-15 2025-03-07 核心光电有限公司 Mobile electronic devices
KR102778426B1 (en) 2020-07-31 2025-03-06 코어포토닉스 리미티드 Hall sensor - magnet geometry for large stroke linear position sensing
WO2022034402A1 (en) 2020-08-12 2022-02-17 Corephotonics Ltd. Optical image stabilization in a scanning folded camera
TWI888016B (en) 2021-03-11 2025-06-21 以色列商核心光電有限公司 Systems for pop-out camera
KR20240025049A (en) 2021-06-08 2024-02-26 코어포토닉스 리미티드 Systems and cameras for tilting a focal plane of a super-macro image
WO2023002371A1 (en) 2021-07-21 2023-01-26 Corephotonics Ltd. Pop-out mobile cameras and actuators
CN121115373A (en) 2022-03-24 2025-12-12 核心光电有限公司 Thin compact lens optical image stabilization

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003021512A (en) * 2001-07-06 2003-01-24 Minolta Co Ltd Parameter obtaining method for calibration of measurement device, information processor for calibration and program
JP4238586B2 (en) * 2003-01-30 2009-03-18 ソニー株式会社 Calibration processing apparatus, calibration processing method, and computer program
JP4960941B2 (en) * 2008-09-22 2012-06-27 日本放送協会 Camera calibration device for zoom lens-equipped camera of broadcast virtual studio, method and program thereof

Also Published As

Publication number Publication date
JP2016105577A (en) 2016-06-09

Similar Documents

Publication Publication Date Title
JP6622503B2 (en) Camera model parameter estimation apparatus and program thereof
US11704833B2 (en) Monocular vision tracking method, apparatus and non-transitory computer-readable storage medium
JP4297197B2 (en) Calibration processing apparatus, calibration processing method, and computer program
CN109919911B (en) Mobile three-dimensional reconstruction method based on multi-view photometric stereo
JP6929123B2 (en) Camera calibration device and camera calibration program
WO2021043213A1 (en) Calibration method, device, aerial photography device, and storage medium
WO2022086200A1 (en) Server, method, and computer program for generating spatial model from panoramic image
JP2019190974A (en) Calibration device, calibration method and program
CN113436267B (en) Visual inertial navigation calibration method, device, computer equipment and storage medium
US8531505B2 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium
JP7151879B2 (en) Camera calibration device, camera calibration method, and program
CN105308627A (en) Method and system for calibrating camera
JP2021124395A (en) Pan tilt angle calculation device and program therefor
JP4948552B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
JP2010239564A (en) Imaging apparatus, imaging control method, and program
JP2022500793A (en) How to calibrate a multi-degree-of-freedom movable visual system
JP2011238048A (en) Position attitude measurement device and position attitude measurement program
JP2016099235A (en) Normally placed image processing system and structure maintenance management business system
JP5235842B2 (en) Optical system parameter calibration apparatus, optical system parameter calibration method, program, and recording medium
WO2016123813A1 (en) Attitude relationship calculation method for intelligent device, and intelligent device
WO2020175621A1 (en) Camera calibration information acquisition device, image processing device, camera calibration information acquisition method, and recording medium
KR102273577B1 (en) Apparatus and method for guiding multi-view capture
JP2007025863A (en) Imaging system, imaging method, and image processing program
JP2014096761A (en) Image processing apparatus, and control method and control program of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191122

R150 Certificate of patent or registration of utility model

Ref document number: 6622503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250