JP2009146150A - Feature position detection method and feature position detection apparatus - Google Patents
Feature position detection method and feature position detection apparatus Download PDFInfo
- Publication number
- JP2009146150A JP2009146150A JP2007322500A JP2007322500A JP2009146150A JP 2009146150 A JP2009146150 A JP 2009146150A JP 2007322500 A JP2007322500 A JP 2007322500A JP 2007322500 A JP2007322500 A JP 2007322500A JP 2009146150 A JP2009146150 A JP 2009146150A
- Authority
- JP
- Japan
- Prior art keywords
- template
- feature position
- luminance
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像認識技術に関するものである。 The present invention relates to an image recognition technique.
現在、カメラ(撮像装置;例えば、デジタルカメラ)に対するキャリブレーション方法として、市松模様を描いたプレート(例えば、図20中の市松模様PICHを描いたプレートP11)を当該カメラ(例えば、図20中のカメラC)で撮像し、その撮像した画像(画像データ)上における市松模様の交点位置(例えば、市松模様PICHを区切る(あるいは、構成する)仮想線(或いは、該模様の濃淡の境界線(濃淡境界線))群K1とK2の各交点KP)に基づいてカメラの内部パラメタを求める方法が広く行われている。その内部パラメタを求める方法では、交点位置をサブピクセルの解像度で、高精度に求めることが重要であるため、従来、多くのサブピクセルにおける交点位置検出方法が提案されている。 At present, as a calibration method for a camera (imaging device; for example, a digital camera), a plate depicting a checkered pattern (for example, a plate P11 depicting a checkered pattern PICH in FIG. 20) is used as the camera (for example, in FIG. 20). captured by the camera C), (intersection checkered on the image data) (e.g., separate the checkered pattern P ICH (or constituting) image the captured imaginary line (or border-like shades該模(Shading boundary line)) A method for obtaining an internal parameter of a camera based on each intersection K P ) of the groups K 1 and K 2 is widely used. In the method for obtaining the internal parameters, since it is important to obtain the intersection position with high resolution at the resolution of the subpixel, conventionally, a method for detecting the intersection position in many subpixels has been proposed.
例えば、上述の交点位置検出方法の一例(例えば、非特許文献1参照)では、ピクセル精度で求めた交差点位置において、輝度の一階微分および二階微分を求め、これらの微分値からサブピクセル精度での交差点位置(即ち、特徴点の一種)を算出している。このように、従来の方法では、輝度の一階微分および二階微分に基づいて算出している。 For example, in the above-described example of the intersection position detection method (see, for example, Non-Patent Document 1), first-order and second-order luminances are obtained at the intersection position obtained with pixel accuracy, and sub-pixel accuracy is obtained from these differential values. The intersection position (that is, a kind of feature point) is calculated. Thus, in the conventional method, it calculates based on the 1st derivative and 2nd derivative of a brightness | luminance.
なお、関連技術として、特徴点の位置群からの姿勢推定方法(例えば、非特許文献2参照)も知られている。
ところが、ウェブカメラ(デジタルカメラの一種)などでは、撮像した画像データにエッジ強調処理が施されていることが多い。例えば、図21は、黒白(あるいは濃淡)パターン画像における境界部分の画像データにおける輝度曲線を示しており、図21(a)は理想的な画像データにおける輝度曲線L1、図21(b)はエッジ強調された画像データにおける輝度曲線L2である。 However, in a web camera (a kind of digital camera), edge enhancement processing is often performed on captured image data. For example, FIG. 21 shows a luminance curve in image data at a boundary portion in a black-and-white (or light and shade) pattern image. FIG. 21A shows a luminance curve L1 in ideal image data, and FIG. It is the brightness | luminance curve L2 in the emphasized image data.
図21(b)のようにエッジ強調処理が施された画像データに対しては、上述の微分値が正しい値として求められず、結果として、算出される交差点のサブピクセル位置が不正確となる、といった問題が知られている。 For the image data subjected to the edge enhancement processing as shown in FIG. 21B, the above-described differential value is not obtained as a correct value, and as a result, the calculated sub-pixel position of the intersection is inaccurate. There is a known problem.
そこで、本発明は、エッジ強調処理が施された画像データからサブピクセル精度で特徴位置を検出する特徴位置検出方法及び特徴位置検出装置を提供することを課題としている。 Therefore, an object of the present invention is to provide a feature position detection method and a feature position detection apparatus that detect feature positions with sub-pixel accuracy from image data that has undergone edge enhancement processing.
本発明は、前記課題を解決すべく創作された技術的思想であって、動画像のフレーム画像データごとに暫定的な特徴位置を検出し、かかる暫定特徴位置に基づいて、サブピクセル精度で検出するためのテンプレートを逐次作成し、このテンプレートを適用することによって、最終的に特徴位置を検出している。 The present invention is a technical idea created to solve the above-described problems, and detects a provisional feature position for each frame image data of a moving image, and detects the sub-pixel accuracy based on the provisional feature position. A template for this is sequentially created, and this template is applied to finally detect the feature position.
具体的には、請求項1記載の発明は、対象物を連続的に撮像した各フレームの画像から該対象物上の特徴位置を検出する特徴位置検出方法であって、暫定特徴点位置検出手段が、現フレームの画像に対し、前フレーム用のテンプレートを適用して、現フレームの画像の暫定特徴位置を検出するステップと、テンプレート作成手段が、前記暫定特徴位置に基づいて、現フレームの画像の特徴位置に対応する現フレーム用のテンプレートを作成するステップと、特徴位置検出手段が、現フレームの画像に前記現フレーム用のテンプレートを適用して、現フレームの画像の特徴位置を検出するステップと、を有することを特徴としている。 Specifically, the invention according to claim 1 is a feature position detection method for detecting a feature position on an object from images of each frame obtained by continuously imaging the object, and includes provisional feature point position detection means. Applying a template for the previous frame to the image of the current frame to detect a provisional feature position of the image of the current frame; and a template creating means, based on the provisional feature position, Creating a template for the current frame corresponding to the feature position of the current frame, and detecting a feature position of the image of the current frame by applying the template for the current frame to the image of the current frame by the feature position detecting means It is characterized by having.
請求項2記載の発明は、前記テンプレートとして、サブピクセル単位でずらした対象物の画像からなるテンプレート群を用いたことを特徴としている。 The invention described in claim 2 is characterized in that a template group consisting of images of objects shifted in sub-pixel units is used as the template.
請求項3記載の発明は、前記対象物として、長方形の4個の各頂点に前記特徴位置を有する図形が描写されたプレートを用いるとともに、前記図形が、スケールによって局部的見えに変化が生じないことを特徴としている。
The invention described in
請求項4記載の発明は、前記テンプレート生成手段が、濃淡二領域を有する前記プレートを撮像した画像の輝度パターンから輝度分布群を作成するステップと、前記輝度分布群に基づいて、明部輝度と暗部輝度とから中間輝度理想輝度パターンを求め、理想輝度パターンであるステップ輝度パターンを作成するステップと、前記ステップ輝度パターンにエッジ強調カーネルを施した合成輝度パターンを作成するステップと、前記合成輝度パターンと実際の輝度パターンとの差異が最小となるパラメタを作成するステップと、前記現フレームの画像を、前記パラメタおよび前記エッジ強調カーネルによってエッジ強調するステップと、を実行することを特徴としている。 According to a fourth aspect of the present invention, the template generating unit creates a luminance distribution group from a luminance pattern of an image obtained by imaging the plate having two shades of light, and based on the luminance distribution group, An intermediate luminance ideal luminance pattern is obtained from the dark portion luminance, a step luminance pattern which is an ideal luminance pattern is created, a synthetic luminance pattern obtained by applying an edge enhancement kernel to the step luminance pattern, and the synthetic luminance pattern And a step of creating a parameter that minimizes a difference between the actual luminance pattern and an edge enhancement step of the current frame image using the parameter and the edge enhancement kernel.
請求項5記載の発明は、前記プレートには、濃淡境界線第一と濃淡境界線第二とがつくる領域を交互に濃淡に塗りつぶした少なくとも3個の平面図形が描写され、前記両濃淡領域線の交点は、同一平面上に配置されているとともに、方向が異なる二対の平行直線の交点に該当する4個の交点のうちいずれかの3個の交点の位置に一致し、前記各濃淡領域線は、前記二対の平行直線に平行なことを特徴としている。 According to a fifth aspect of the present invention, at least three plane figures in which the areas formed by the first and second boundary lines are alternately painted on the plate are depicted on the plate, Are arranged on the same plane and coincide with the positions of any three of the four intersections corresponding to the intersection of two pairs of parallel straight lines having different directions, The line is characterized by being parallel to the two pairs of parallel straight lines.
請求項6記載の発明は、対象物を連続的に撮像した各フレームの画像から該対象物上の特徴位置を検出する特徴位置検出装置であって、現フレームの画像に対し、前フレーム用のテンプレートを適用して、現フレームの画像の暫定特徴位置を検出する暫定特徴点位置検出手段と、前記暫定特徴位置に基づいて、現フレームの画像の特徴位置に対応する現フレーム用のテンプレートを作成するテンプレート作成手段と、現フレームの画像に前記現フレーム用のテンプレートを適用して、現フレームの画像の特徴位置を検出する特徴位置検出手段と、を有することを特徴としている。 The invention according to claim 6 is a feature position detecting device for detecting a feature position on an object from images of each frame obtained by continuously imaging the object, and for the image of the current frame. Applying a template to detect a temporary feature point position detecting means for detecting a temporary feature position of an image of the current frame, and creating a template for the current frame corresponding to the feature position of the image of the current frame based on the temporary feature position And a feature position detecting means for detecting the feature position of the image of the current frame by applying the template for the current frame to the image of the current frame.
請求項7記載の発明は、前記テンプレートとして、サブピクセル単位でずらした対象物の画像からなるテンプレート群を用いたことを特徴としている。 The invention described in claim 7 is characterized in that a template group consisting of images of objects shifted in sub-pixel units is used as the template.
請求項8記載の発明は、前記対象物として、長方形の4個の各頂点に前記特徴位置を有する図形が描写されたプレートを用いるとともに、前記図形が、スケールによって局部的見えに変化が生じないことを特徴としている。 The invention described in claim 8 uses, as the object, a plate in which a figure having the characteristic position is drawn at each of four vertices of a rectangle, and the figure does not change in local appearance depending on the scale. It is characterized by that.
請求項9記載の発明は、前記テンプレート生成手段は、濃淡二領域を有する前記プレートを撮像した画像の輝度パターンから輝度分布群を作成する手段と、前記輝度分布群に基づいて、明部輝度と暗部輝度とから中間輝度理想輝度パターンを求め、理想輝度パターンであるステップ輝度パターンを作成する手段と、前記ステップ輝度パターンにエッジ強調カーネルを施した合成輝度パターンを作成する手段と、前記合成輝度パターンと実際の輝度パターンとの差異が最小となるパラメタを作成する手段と、前記現フレームの画像を、前記パラメタおよび前記エッジ強調カーネルによってエッジ強調する手段と、を有することを特徴としている。 In the invention according to claim 9, the template generation means generates a brightness distribution group from a brightness pattern of an image obtained by imaging the plate having two shaded areas, and based on the brightness distribution group, Means for obtaining an intermediate luminance ideal luminance pattern from the dark portion luminance, creating a step luminance pattern which is an ideal luminance pattern, means for creating a synthetic luminance pattern obtained by applying an edge enhancement kernel to the step luminance pattern, and the synthetic luminance pattern And means for creating a parameter that minimizes the difference between the actual luminance pattern and the means for edge enhancement of the image of the current frame by the parameter and the edge enhancement kernel.
請求項10記載の発明は、前記プレートには、濃淡境界線第一と濃淡境界線第二とがつくる領域を交互に濃淡に塗りつぶした少なくとも3個の平面図形が描写され、前記両濃淡領域線の交点は、同一平面上に配置されているとともに、方向が異なる二対の平行直線の交点に該当する4個の交点のうちいずれかの3個の交点の位置に一致し、前記各濃淡領域線は、前記二対の平行直線に平行なことを特徴としている。
The invention according to
なお、請求項1〜10記載の発明中、前フレームには現フレームnに対するフレーム(n−1)を用いることが好ましいが、これに限定されることはなく、フレーム(n−2.3...k)であってもよい。 In the present invention, it is preferable to use the frame (n−1) for the current frame n as the previous frame, but the present invention is not limited to this, and the frame (n−2.3. K).
請求項1〜10記載の発明によれば、テンプレート画像データを使って、自動的に施されてしまう撮像装置で撮像した画像データからサブピクセル精度で、特徴位置を高精度に検出できる。 According to the first to tenth aspects of the present invention, it is possible to detect the feature position with high accuracy with sub-pixel accuracy from the image data captured by the imaging device that is automatically applied using the template image data.
以下、本発明の実施形態における特徴位置検出方法を図面等に基づいて詳細に説明する。本実施形態では、エッジ強調処理が施されてしまうカメラ(例えば、ウェブカメラ)で撮像し、エッジ強調された画像データを対象とする。 Hereinafter, a feature position detection method according to an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, image data that has been captured by a camera (for example, a web camera) that has been subjected to edge enhancement processing and edge-enhanced is targeted.
本実施形態では、上述のような市松模様の交点付近での輝度の一階微分および二階微分をもとに交点位置をサブピクセルで求める手法は利用できないため、交点の濃淡(あるいは輝度)パターンを有するテンプレート画像データ(以後、単にテンプレート)を利用する手法を採用する。 In the present embodiment, since the method for obtaining the position of the intersection point by subpixel based on the first and second luminances of the luminance near the intersection of the checkered pattern as described above cannot be used, the gray level (or luminance) pattern of the intersection is not used. A method of using template image data (hereinafter simply referred to as a template) is employed.
ただし、以下の説明では、テンプレートは、実質的に2つの角度(後述する開度)の組み合わせに応じたバリエーションを有している。この組み合わせ数の理由は、次の通りである。例えば、1度刻みの離散度を条件とする場合には、32400(=180×180)種類のテンプレートを必要とし、加えて、サブピクセル精度で検出する必要がある場合には、更に多くのテンプレートを必要とする。このようなサブピクセルの検出精度を実現するためのテンプレート群を、十分に細かい離散度を維持したまま、記憶部(例えば、メモリ)上に全て保持しておくことは実際には困難である。 However, in the following description, the template has a variation substantially corresponding to a combination of two angles (openings described later). The reason for the number of combinations is as follows. For example, when the degree of discreteness is set as a condition, 32400 (= 180 × 180) types of templates are required, and in addition, when it is necessary to detect with subpixel accuracy, more templates are required. Need. It is actually difficult to hold all template groups for realizing such subpixel detection accuracy on a storage unit (for example, a memory) while maintaining a sufficiently fine discreteness.
本実施形態における特徴位置検出方法は、以下の手順を有する。
(1)テンプレート群の作成手順
(2)サブピクセル精度の特徴位置の推定手順
本実施形態の特徴位置検出方法におけるテンプレート群の作成手順を図1に基づいて説明する。なお、図1は、テンプレート群の作成手順のメインフローチャートである。
The feature position detection method in this embodiment has the following procedures.
(1) Template Group Creation Procedure (2) Subpixel Accuracy Feature Position Estimation Procedure A template group creation procedure in the feature position detection method of this embodiment will be described with reference to FIG. FIG. 1 is a main flowchart of a template group creation procedure.
まず、ウェブカメラなどで撮像されエッジ強調された画像データ(以後、テンプレート用入力画像データ)からエッジ強調処理のパラメタを推定する(S101:エッジ強調処理のパラメタ推定ステップ)。 First, a parameter for edge enhancement processing is estimated from image data (hereinafter referred to as template input image data) captured by a web camera or the like and edge-enhanced (S101: parameter estimation step for edge enhancement processing).
次に、スーパーサンプリングを用いて、サブピクセル精度で特徴位置を検出するためのテンプレート群を生成する(S102:テンプレート群生成ステップ)。 Next, a template group for detecting a feature position with subpixel accuracy is generated using supersampling (S102: template group generation step).
そして、推定したパラメタに基づいてテンプレート群をエッジ強調する(エッジ強調処理を施す)(S103:テンプレート群のエッジ強調ステップ)。 Then, edge enhancement is performed on the template group based on the estimated parameters (edge enhancement processing is performed) (S103: edge enhancement step of the template group).
エッジ強調処理のパラメタ推定ステップ(S101)を図2中のフローチャートに基づいて説明する。 The parameter estimation step (S101) of the edge enhancement process will be described based on the flowchart in FIG.
まず、当該カメラ(例えば、図3中のカメラC)で、濃淡(或いは黒白或いは輝度の低高)領域境界線(仮想線)K3を僅かに傾けた濃淡領域を描画したプレート(例えば、図3中のプレートP21)を撮像する。その撮像した画像データ(即ち、テンプレート用入力画像データ)をスキャンライン(i)ごとに輝度パターンXjを取り込み、ヒストグラム(輝度ヒストグラムデータ;例えば、図4のヒストグラムHg)を作成する(S201:輝度パターン取り込みヒストグラム作成ステップ)。 First, a plate (for example, FIG. 3 ) on which a light / dark region with a slight inclination of a light / dark (or black / white or low / high luminance) region boundary line (virtual line) K 3 is drawn by the camera (for example, camera C in FIG. 3). 3 is imaged. The captured image data (that is, template input image data) is fetched with a luminance pattern X j for each scan line (i), and a histogram (luminance histogram data; for example, histogram H g in FIG. 4) is created (S201: Luminance pattern capture histogram creation step).
次に、作成したヒストグラムに基づいて、スキャンラインSCにおける明部輝度IBおよび暗部輝度IDから中間輝度IM(=(IB+ID)/2)を求め、理想輝度パターンであるステップ輝度パターンYj(例えば、図5中のステップ輝度パターンYj)を作成する(S202:ステップ輝度パターン作成ステップ)。 Next, an intermediate luminance I M (= (I B + I D ) / 2) is obtained from the bright portion luminance I B and the dark portion luminance I D on the scan line S C based on the created histogram, and the step is an ideal luminance pattern A brightness pattern Y j (eg, step brightness pattern Y j in FIG. 5) is created (S202: step brightness pattern creation step).
次に、作成したステップ輝度パターンYijにパラメタをσとするガウシアンカーネル及びパラメタをαとするエッジ強調カーネルを施した合成輝度パターンZij(以下の式参照)を作成する(S203:合成輝度パターン作成ステップ)。 Next, a synthesized luminance pattern Z ij (see the following formula) is created by applying the Gaussian kernel with the parameter σ and the edge enhancement kernel with the parameter α to the created step luminance pattern Y ij (S203: synthesized luminance pattern) Creation step).
なお、上記の式では、Gはパラメタをσとするガウシアンカーネル、Hはパラメタをαとするエッジ強調カーネルである。なお、エッジ強調カーネルHは、重みをwとした以下の式である。また、図6は、エッジ強調カーネルHの一例を示す図である。 In the above equation, G is a Gaussian kernel with a parameter σ, and H is an edge enhancement kernel with a parameter α. Note that the edge emphasis kernel H is the following expression where the weight is w. FIG. 6 is a diagram illustrating an example of the edge enhancement kernel H.
そして、以下の式に示す評価値Eを最小とするパラメタσおよびαを求め、求められたパラメタαをエッジ強調処理のパラメタと見做す(S204:エッジ強調処理のパラメタ算出ステップ)。 Then, parameters σ and α that minimize the evaluation value E shown in the following equation are obtained, and the obtained parameter α is regarded as a parameter for edge enhancement processing (S204: parameter calculation step for edge enhancement processing).
なお、式2は、理想ステップ輝度パターンにガウシアンカーネルとエッジ強調カーネルを施した結果と実際の輝度パターンとの差異を評価する式であり、式1−1は上記評価の一部を解かり易くするために分離したものである。 Equation 2 is an equation for evaluating the difference between the result of applying the Gaussian kernel and the edge enhancement kernel to the ideal step luminance pattern and the actual luminance pattern, and Equation 1-1 makes it easy to understand part of the above evaluation. To be separated.
テンプレート群生成ステップ(S102)を図7中のフローチャート及び図8に基づいて説明する。なお、作成すべきテンプレートのサイズは、テンプレート用入力画像データのサイズより小さいものとする。また、作成すべきテンプレートは、交点を1つのみ有する市松模様(以下、1交点市松模様という)を変形した模様(以下、変形1交点市松模様)を描画したテンプレートである。 The template group generation step (S102) will be described based on the flowchart in FIG. 7 and FIG. It is assumed that the size of the template to be created is smaller than the size of the template input image data. The template to be created is a template in which a checkered pattern (hereinafter referred to as a one-intersection checkered pattern) having only one intersection is drawn (hereinafter referred to as a modified one-intersection checkered pattern).
まず、作成すべきテンプレートと同じサイズを有する空白テンプレート(16×16(=tX×tY)ピクセルのサイズを有する空白テンプレート)tBを想定し、さらに、その空白テンプレートtBにおいて、基準点KP1(=座標(KX,KY))を想定する。続いて、その空白テンプレートを倍率Nで変倍したサイズの空白テンプレート(以後、変倍空白テンプレートという)tMBを作成する(S301:テンプレートのN倍のサイズの画像を作成するステップ)。なお、空白テンプレートとは、例えば、全画素を画素値0(黒色画素)もしくは最大画素値(白色画素)で埋められた画像データである。 First, assume a blank template (blank template having a size of 16 × 16 (= t X × t Y ) pixels) t B having the same size as the template to be created, and further, in the blank template t B , Assume K P1 (= coordinates (K X , K Y )). Subsequently, a blank template t MB having a size obtained by scaling the blank template at a magnification N (hereinafter referred to as a scaled blank template) tMB is created (S301: Step of creating an image having a size N times that of the template). The blank template is, for example, image data in which all pixels are filled with a pixel value 0 (black pixel) or a maximum pixel value (white pixel).
例えば、作成すべきテンプレートのサイズが16×16ピクセルで、倍率N=10の場合、作成される変倍空白テンプレートのサイズは、160×160ピクセルとなる。なお、図8中では、作成すべきテンプレートのサイズが16×16ピクセルで、倍率N=2としている。即ち、変倍空白テンプレートtMBのサイズtMBX×tMBYは、32×32ピクセルである。 For example, when the size of the template to be created is 16 × 16 pixels and the magnification N = 10, the size of the scaled blank template to be created is 160 × 160 pixels. In FIG. 8, the size of the template to be created is 16 × 16 pixels, and the magnification N = 2. That is, the size t MBX × t MBY of the variable-magnification blank template t MB is 32 × 32 pixels.
基準点KP1は、変倍空白テンプレートtMBにおいて、基準点KP11(=座標(KX×N,KY×N))を含む変換基準点領域(N×Nピクセルのサイズの領域)KPMに変換される。 Reference point K P1, in zooming blank template t MB, the reference point K P11 (= coordinates (K X × N, K Y × N)) conversion reference point region containing the (size of the area of the N × N pixels) K Converted to PM .
変形1交点市松模様の交点は、変倍空白テンプレートtMBにおける基準点KP11を原点とし、XY方向に伸びたN×Nピクセルサイズ領域における各画素KP(=座標(KX×N+I,KY×N+J)、0≦I≦N−1,0≦J≦N−1)のいずれかである。なお、以下の説明では、変形1交点市松模様の交点KPの座標を、基準点KP11の座標として説明する。 Deformation 1 intersection The intersection of the checkered pattern is the origin of the reference point K P11 in the variable magnification blank template t MB , and each pixel K P (= coordinate (K X × N + I, K) in the N × N pixel size region extending in the XY direction. Y × N + J), 0 ≦ I ≦ N−1, or 0 ≦ J ≦ N−1). In the following description, the coordinates of the intersection point K P of the deformation 1 intersection checkered pattern will be described as the coordinates of the reference point K P11 .
次に、基準点KP11を交点とし、予め決定された開度を成すような濃淡領域境界線K4,K5に基づいて変形1交点市松模様(濃淡パターン)を変倍空白テンプレートtMBに描画し、変倍テンプレートtMPを得る(S302:基準位置に指定された開度で、パターンを生成するステップ)。なお、開度とは、市松模様を描いたプレートをカメラに対して傾けた際に画像上で生じるスキューによる境界(濃淡パターンの境界である濃淡領域境界線)の傾きが成す角度(例えば、図9中の開度θ1,θ2)である。なお、図9中の開度θ1,θ2の値は、便宜上、図8のものとは異なるものを採用している。また、図10(a),(b)は、濃淡領域境界線K4,K5が直交する場合の開度の例であって、図10(a)における第1象限が黒色かつ第2象限が白色の場合は、開度θ1は0度、開度θ2は90度となる。図10(b)における第1象限が白色かつ第2象限が黒色の場合は、開度θ1は90度、開度θ2は180度となる。 Next, a deformed one-intersection checkered pattern (light / dark pattern) is converted into a variable blank template t MB based on the light / dark area boundary lines K 4 and K 5 with the reference point K P11 as an intersection. Drawing is performed to obtain a magnification template t MP (S302: Step of generating a pattern with an opening degree designated as a reference position). Note that the opening is an angle formed by the inclination of a boundary (a shaded area boundary line that is a border of a shaded pattern) due to a skew generated on an image when a checkered plate is tilted with respect to the camera (for example, FIG. 9 is the opening degree θ 1 , θ 2 ). For the sake of convenience, values of the opening degrees θ 1 and θ 2 in FIG. 9 are different from those in FIG. 10 (a) and 10 (b) are examples of the opening when the shaded area boundary lines K 4 and K 5 are orthogonal to each other, and the first quadrant in FIG. 10 (a) is black and the second quadrant. Is white, the opening θ 1 is 0 degree and the opening θ 2 is 90 degrees. When the first quadrant in FIG. 10B is white and the second quadrant is black, the opening θ 1 is 90 degrees and the opening θ 2 is 180 degrees.
次に、変形1交点市松模様(濃淡パターン)を描画された変倍テンプレートtMPを1/Nに縮小し、作成すべきテンプレートと同サイズであるテンプレートtPを取得する(S303:1/Nに縮小するステップ)。 Next, the scaling template t MP on which the deformation 1 intersection checkered pattern (light and shade pattern) is drawn is reduced to 1 / N, and a template t P having the same size as the template to be created is obtained (S303: 1 / N). Step to shrink).
そして、生成したテンプレートtP数が、N×N枚より小さいか否かをチェックする(S304)。生成したテンプレートtP数が、N×N枚より小さい場合は、ステップS305へ進む。生成したテンプレートtP数が、N×N枚より小さくない場合は、当該処理を終了する。 Then, it is checked whether or not the number of generated templates t P is smaller than N × N (S304). If the number of generated templates t P is smaller than N × N, the process proceeds to step S305. If the number of generated templates t P is not smaller than N × N, the process is terminated.
ステップS305(基準位置を1画素ずらすステップ)では、交点KPを1画素分ずらして、ステップS301へ進む。 In step S305 (step of shifting the reference position by one pixel), the intersection point K P is shifted by one pixel, and the process proceeds to step S301.
以上の処理により、全ての基準位置で上記の処理を行い、テンプレート群を作成する。例えば、N=10の場合には作成されるテンプレート群のテンプレートの枚数は100枚となる。なお、テンプレート群の各テンプレートは、作成の際の基準位置、すなわち変倍テンプレート画像上の変換基準点領域における2次元座標(I,J)を識別子として識別することにする。 Through the above processing, the above processing is performed at all reference positions to create a template group. For example, when N = 10, the number of templates in the created template group is 100. Each template in the template group is identified with the reference position at the time of creation, that is, the two-dimensional coordinates (I, J) in the conversion reference point region on the scaling template image as an identifier.
テンプレート群のエッジ強調ステップ(S103)をさらに詳細に説明する。ステップS101で推定したパラメタα及び図6に示すエッジ強調カーネルHによって、ステップS102で作成したテンプレート群の各テンプレートの画像をエッジ強調する。 The template group edge enhancement step (S103) will be described in more detail. The image of each template in the template group created in step S102 is edge-enhanced using the parameter α estimated in step S101 and the edge enhancement kernel H shown in FIG.
本実施形態の特徴位置検出方法におけるサブピクセル精度の特徴位置の推定手順を図11に基づいて説明する。なお、図11は、サブピクセル精度の特徴位置の推定手順のメインフローチャートである。 A procedure for estimating a feature position with sub-pixel accuracy in the feature position detection method of this embodiment will be described with reference to FIG. FIG. 11 is a main flowchart of a procedure for estimating a feature position with sub-pixel accuracy.
まず、入力画像データ(例えば、図12中の入力画像データBP)の各画素位置(x,y)(例えば、図12中の画素位置dを有する領域)において、テンプレート(0,0)(例えば、図12中のテンプレートt0)を適用し、テンプレート(0,0)に最も類似する画素位置(初期類似画素位置)を画素位置(X,Y)と決定する(S401:初期類似画素位置決定ステップ)。なお、類似性をチェックする際には、例えば、図12中の画素位置dとテンプレートt0上の画素位置dtの位置を合わせて類似性をチェックする。 First, in each pixel position (x, y) (for example, a region having the pixel position d in FIG. 12) of input image data (for example, input image data B P in FIG. 12), a template (0, 0) ( For example, by applying the template t 0 in FIG. 12, the pixel position (initial similar pixel position) most similar to the template (0, 0) is determined as the pixel position (X, Y) (S401: initial similar pixel position). Decision step). Note that when checking the similarity, for example, by aligning the pixel position d t on pixel position d and the template t 0 in FIG. 12 checks the similarity.
次に、画素位置(X,Y)およびその8近傍画素位置に対して、テンプレート群(例えば、図12中のテンプレート群T)の全てのテンプレート(I,J)を適用し、それらに最も類似する画素位置を8近傍類似画素位置(画素位置(XS,YS))と見做し、最も類似する8近傍類似画素位置テンプレート(テンプレート(IS,JS))とする(S402:8近傍画素に対する類似画素位置決定ステップ)。 Next, all the templates (I, J) of the template group (for example, template group T in FIG. 12) are applied to the pixel position (X, Y) and its eight neighboring pixel positions, and the most similar to them. The pixel position to be considered is an 8-neighborhood similar pixel position (pixel position (X S , Y S )), and the most similar 8-neighborhood similar pixel position template (template (I S , J S )) is set (S402: 8 Similar pixel position determination step for neighboring pixels).
そして、位置(XS+IS/N,YS+JS/N)をサブピクセル精度の特徴位置(即ち、交点)とする(S403:サブピクセル精度の特徴位置算出ステップ)。なお、Nは、上述した倍率Nである。 Then, the position (X S + I S / N, Y S + J S / N) is set as a subpixel accuracy feature position (ie, intersection) (S403: subpixel accuracy feature position calculation step). N is the magnification N described above.
次に、本実施形態における特徴位置検出装置の構成を図13に基づいて説明する。 Next, the configuration of the feature position detection apparatus in the present embodiment will be described with reference to FIG.
図13中の特徴位置検出装置は、画像データ管理部103(後述する)から読み出した入力画像データに対し、上述のサブピクセル精度の特徴位置の推定手順(ステップS401〜S403)を実行し、テンプレート管理部104(後述する)に格納されたテンプレート群を用いて、特徴位置を検出する特徴点位置検出部101,上述のテンプレート群の作成手順(ステップS101(もしくはS201〜S204),S102(もしくはS301〜S305),S103)を実行しテンプレート群を作成し、テンプレート管理部104(後述する)に格納するテンプレート作成部102,特徴位置を検出する対象である画像データを格納し管理する画像データ管理部103,エッジ強調処理のパラメタを算出するためのテンプレート用画像データ及びテンプレート群を格納し管理するテンプレート管理部104,CPU(Central Processing Unit)やOS(Operating System)など含み、各部を制御する制御部(図示省略),メモリやハードディスクドライブ装置など含み、当該装置で使用する情報もしくはデータを記憶する記憶部(図示省略)を備え、例えば、コンピュータである。
The feature position detection device in FIG. 13 executes the above-described subpixel accuracy feature position estimation procedure (steps S401 to S403) on the input image data read from the image data management unit 103 (described later) to obtain a template. Using the template group stored in the management unit 104 (described later), the feature point
なお、特徴位置検出装置の各部の動作は、上述の手順に詳しく説明した。特徴位置検出装置の全部もしく一部をコンピュータで実行可能なプログラムとして実装しても良い。画像データ管理部103,テンプレート管理部104は、上述の記憶部に実装されても良い。
The operation of each part of the feature position detection device has been described in detail in the above procedure. All or part of the feature position detection device may be implemented as a program executable by a computer. The image
以下に、本実施形態における特徴位置検出装置の動作の一例を説明する。なお、動作の詳細は、上述の手順を参照されたい。 Below, an example of operation | movement of the characteristic position detection apparatus in this embodiment is demonstrated. Refer to the above procedure for details of the operation.
テンプレート作成部102が、濃淡領域境界線を僅かに傾けた濃淡領域を描画したプレートを撮像したテンプレート用画像データをテンプレート管理部104から取得し、テンプレート用画像データのスキャンラインごとに輝度パターンを取り込み、輝度ヒストグラムデータを作成する。
The
次に、テンプレート作成部102が、作成したヒストグラムデータに基づいて、明部輝度および暗部輝度から中間輝を求め、理想輝度パターンであるステップ輝度パターンを作成する。
Next, the
次に、テンプレート作成部102が、作成したステップ輝度パターンにパラメタをσとするガウシアンカーネル及びパラメタをαとするエッジ強調カーネルを施した合成輝度パターンを作成する。
Next, the
次に、テンプレート作成部102が、理想ステップ輝度パターンにガウシアンカーネルとエッジ強調カーネルを施した結果と実際の輝度パターンとの差異を評価する式において、その式による評価値を最小とするパラメタを求め、求められたパラメタをエッジ強調処理するためのパラメタαと見做す。
Next, in the expression for evaluating the difference between the result of applying the Gaussian kernel and the edge enhancement kernel to the ideal step luminance pattern and the actual luminance pattern, the
次に、テンプレート作成部102が、基準点を有する作成すべき空白テンプレート画像データを倍率Nで変倍し、変倍されたことによって、該基準点が変換された変換基準点領域を有する変倍空白テンプレート画像データを作成する。
Next, the
次に、テンプレート作成部102が、前記変換基準点領域に含まれる点を交点とし、予め決定された開度を成すような濃淡領域境界線に基づいて変形1交点市松模様を前記変倍空白テンプレートに描画した変倍テンプレート画像データを得る。
Next, the
次に、テンプレート作成部102が、前記変形1交点市松模様を描画された変倍テンプレート画像データを1/Nに縮小し、作成すべきテンプレート画像データと同サイズであるテンプレート画像データを取得し、該テンプレート画像データを前記テンプレート管理部104に格納する。
Next, the
次に、テンプレート作成部102が、推定したパラメタα及び前記エッジ強調カーネルによって、前記テンプレート管理部に格納したテンプレート群の各テンプレート画像データの画像をエッジ強調し、改めてテンプレート画像データとして、前記テンプレート管理部104に格納する。
Next, the
次に、特徴点位置検出部101が、前記画像データ管理部103から取得した入力画像データの各画素位置において、前記前記テンプレート管理部104に格納された特定のテンプレート画像データを適用し、該特定のテンプレート画像データに最も類似する初期類似画素位置を決定する。
Next, the feature point
次に、特徴点位置検出部101が、初期類似画素位置および該初期類似画素位置の8近傍画素位置に対して、前記テンプレート画像データ群の全てのテンプレート画像データを適用し、それらに最も類似する画素位置を8近傍類似画素位置と見做し、最も類似するテンプレートを8近傍類似画素位置テンプレートと見做す。
Next, the feature point
そして、特徴点位置検出部101が、前記8近傍類似画素位置に対し、前記8近傍類似画素位置テンプレートの変換基準点領域における交点の座標を倍率Nで割算した値を加算し、その加算された値をサブピクセル精度の特徴位置と見做す。
Then, the feature point
[実施例]
本実施例における特徴位置検出方法は、動画像におけるフレーム画像データごとに暫定的な特徴位置に基づいて、サブピクセル精度で検出するためのテンプレート群を逐次作成し、改めて、作成したテンプレート群を適用することによって、最終的にサブピクセル精度の特徴位置を推定するものである。
[Example]
The feature position detection method according to the present embodiment sequentially creates a template group for detection with sub-pixel accuracy based on a provisional feature position for each frame image data in a moving image, and applies the created template group again. By doing so, the feature position with sub-pixel accuracy is finally estimated.
次に、本実施形態における特徴位置検出方法を応用した例を説明する。本実施例では、以下に説明する市松模様を描かれたプレートと該プレートを撮像した画像データ群(例えば、プレートを傾けつつ連続して撮像した画像群であって、動画像における各フレーム画像データ(以下、単にフレーム画像という)など)を対象とする。フレーム画像には、各フレーム画像を識別するための番号(フレーム番号n)が付与されているものとする。 Next, an example in which the feature position detection method in the present embodiment is applied will be described. In this embodiment, a plate on which a checkerboard pattern described below is drawn and an image data group obtained by imaging the plate (for example, an image group obtained by continuously imaging the plate while tilting each frame image data in a moving image) (Hereinafter simply referred to as a frame image). It is assumed that a number (frame number n) for identifying each frame image is given to the frame image.
本実施例で使用する市松模様を描画されたプレートを図14に基づいて説明する。 A plate on which a checkered pattern used in this embodiment is drawn will be described with reference to FIG.
図14中の4個の市松模様PICH1,PICH2,PICH3,PICH4は、1交点市松模様であって、プレートP31内に、交点KP21,KP22,KP23,KP24が仮想正方形Qの頂点の位置に配置されるように描画されているものである。ただし、1交点市松模様は、3個以上あり、かつ、直線配置ではなく、任意の多角形を形成するように配置すれば良い。しかし、姿勢算出の計算コストを低減するために、以下の説明では、1交点市松模様を線対称かつ点対称に配置とした。 Four checkered P ICH1 in FIG 14, P ICH2, P ICH3, P ICH4 is 1 intersection a checkered pattern, in the plate P31, intersection K P21, K P22, K P23 , K P24 virtual square It is drawn so as to be arranged at the position of the vertex of Q. However, there are three or more checkered checkered patterns, and they may be arranged to form an arbitrary polygon instead of a linear arrangement. However, in order to reduce the calculation cost of posture calculation, in the following description, the one-intersection checkered pattern is arranged line-symmetrically and point-symmetrically.
本実施例における特徴位置検出方法を図15のフローチャートと図16に基づいて説明する。なお、図16は、特徴位置検出の様子を示す図である。以下では、フレーム番号nに応じたものを、例えば、U(n)のように記載する。 The feature position detection method in the present embodiment will be described with reference to the flowchart of FIG. 15 and FIG. FIG. 16 is a diagram illustrating how the feature position is detected. In the following, the one corresponding to the frame number n is described as U (n), for example.
まず、フレーム画像F(n)に対して、フレーム用テンプレート群T(n−1)を適用して、フレーム暫定特徴点位置KTP(n)を検出する(S501:フレーム暫定特徴点位置検出ステップ)。例えば、図16中では、フレーム画像F2に対して、フレーム用テンプレート群T1を適用して、フレーム暫定特徴点位置KTP2を検出する。なお、ステップS501では、上述のサブピクセル精度の特徴位置の推定手順を利用して、フレーム暫定特徴点位置KTP(n)を検出する。フレーム用テンプレート群T1は、図10で示したテンプレートを使用しても良い。 First, the frame template group T (n−1) is applied to the frame image F (n) to detect the frame provisional feature point position K TP (n) (S501: frame provisional feature point position detection step). ). For example, in FIG. 16, the frame temporary feature point position K TP2 is detected by applying the frame template group T 1 to the frame image F 2 . In step S501, the frame provisional feature point position K TP (n) is detected using the above-described procedure for estimating the feature position with sub-pixel accuracy. The template shown in FIG. 10 may be used for the frame template group T 1 .
次に、フレーム暫定特徴点位置KTP(n)に基づいて、フレーム画像F(n)上の各1交点市松模様に対応するフレーム用テンプレート群T(n)を生成する(S502:フレーム用テンプレート群生成ステップ)。なお、詳細については後に説明する。例えば、図16中では、フレーム暫定特徴点位置KTP2に基づいて、フレーム画像F2上の各1交点市松模様に対応するフレーム用テンプレート群T2を生成する。 Next, based on the frame temporary feature point position K TP (n), a frame template group T (n) corresponding to each one intersection checkered pattern on the frame image F (n) is generated (S502: frame template). Group generation step). Details will be described later. For example, in FIG. 16, a frame template group T 2 corresponding to each one checkered checkerboard pattern on the frame image F 2 is generated based on the frame provisional feature point position K TP2 .
次に、フレーム画像F(n)に、フレーム用テンプレート群T(n)を適用して、フレーム特徴点位置KP(n)を検出する(S503:フレーム特徴点位置検出ステップ)。例えば、図16中では、フレーム画像F2に、フレーム用テンプレート群T2を適用して、フレーム特徴点位置KP2を検出する。なお、ステップS503では、上述のサブピクセル精度の特徴位置の推定手順を利用して、フレーム特徴点位置KP(n)を検出する。 Next, the frame feature point position K P (n) is detected by applying the frame template group T (n) to the frame image F (n) (S503: frame feature point position detecting step). For example, in FIG. 16, the frame feature point position K P2 is detected by applying the frame template group T 2 to the frame image F 2 . In step S503, the frame feature point position K P (n) is detected by using the above-described procedure for estimating the feature position with sub-pixel accuracy.
そして、全てのフレーム画像群に対して、上述の処理していなければ、画像番号nを進めて(加算して)、ステップS501へ進む。例えば、図16中では、フレーム画像F3が処理され、フレーム暫定特徴点位置KTP3、フレーム用テンプレート群T3、フレーム特徴点位置KP3が生成される。全てのフレーム画像群Fに対して、上述の処理していれば、当該処理を終了する。 If all the frame image groups have not been processed, the image number n is advanced (added), and the process proceeds to step S501. For example, in FIG. 16, the frame image F 3 is processed to generate a frame temporary feature point position K TP3 , a frame template group T 3 , and a frame feature point position K P3 . If the above-described processing is performed for all the frame image groups F, the processing is terminated.
上述のように、ステップS502およびステップS503の処理を繰り返すことによって、より高精度な特徴点位置検出を可能とする。 As described above, it is possible to detect feature point positions with higher accuracy by repeating the processes of step S502 and step S503.
次に、ステップS502を図17のフローチャート及び図18に基づいて詳細に説明する。 Next, step S502 will be described in detail based on the flowchart of FIG. 17 and FIG.
まず、フレーム暫定特徴点位置KTP(n)に基づいて、フレーム画像F(n)上の消失点位置V1,V2を算出する(S601:消失点算出ステップ)。例えば、図18中の特徴点(即ち、変形1交点市松模様PICH1’の交点)KP21’と特徴点(即ち、変形1交点市松模様PICH2’の交点)KP22’を結んだ直線LV11と特徴点(即ち、変形1交点市松模様PICH4’の交点)KP24’と特徴点(即ち、変形1交点市松模様PICH3’の交点)KP23’を結んだ直線LV12との交点を消失点位置V1として算出する。同様に、直線LV21と直線LV22に基づいて消失点位置V2を算出する。 First, the vanishing point positions V1 and V2 on the frame image F (n) are calculated based on the frame temporary feature point position K TP (n) (S601: vanishing point calculating step). For example, feature points in FIG. 18 (i.e., 'the intersection of K P21 variant 1 intersection checkerboard P ICH1)' and the feature point (i.e., deform one-intersection checkerboard P 'intersection of K P22 ICH2)' straight connecting L V11 and the feature point (i.e., 'the intersection of K P24 variant 1 intersection checkerboard P ICH4)' intersection of the feature points (i.e., deformation 'intersection of K P23 1 intersection checkerboard P ICH3)' straight line L V12 connecting the Is calculated as the vanishing point position V1. Similarly, the vanishing point position V2 is calculated based on the straight line L V21 and the straight line L V22 .
次に、算出した消失点位置V1,V2に基づいて、フレーム画像F(n)上の各1交点市松模様の交点位置であるフレーム暫定特徴点位置KTP(n)における開度(即ち、濃淡領域境界線の傾き)を算出する(S602:開度算出ステップ)。 Next, based on the calculated vanishing point positions V1 and V2, the opening degree (that is, the shading) at the frame temporary feature point position K TP (n) that is the intersection position of each one intersection checkered pattern on the frame image F (n). (Slope of region boundary line) is calculated (S602: opening degree calculating step).
例えば、消失点位置V1と交点KP21’を結ぶ直線LV11の傾きと、消失点位置V2と交点KP21’を結ぶ直線LV21の傾きと、に基づいて交点KP21’における開度を算出する。 For example, the opening degree at the intersection K P21 ′ is calculated based on the inclination of the straight line L V11 connecting the vanishing point position V1 and the intersection K P21 ′ and the inclination of the straight line L V21 connecting the vanishing point position V2 and the intersection K P21 ′. To do.
そして、ステップS602において算出された開度に基づいて、上述のテンプレート群の作成手順を使用し、フレーム用テンプレート群T(n)を生成する(S603:開度に基づくフレーム用テンプレート群生成ステップ)。 Then, based on the opening calculated in step S602, the above-described template group creation procedure is used to generate a frame template group T (n) (S603: frame template group generation step based on opening). .
一般的には、フレーム暫定特徴点位置KTP(n)から、プレートの位置姿勢を推定し、予め判っているプレート上における各1交点市松模様の位置姿勢に基づいてフレーム画像F(n)上の各1交点市松模様の交点における濃淡領域境界線の傾きを求めても良い。 In general, the position and orientation of the plate are estimated from the frame provisional feature point position K TP (n), and on the frame image F (n) based on the position and orientation of each checkered checkerboard pattern on the plate that is known in advance. Alternatively, the gradient of the shaded area boundary line at the intersection of each one intersection checkered pattern may be obtained.
なお、フレーム画像F(n)上の特徴点位置からプレートの位置姿勢を推定する方法については、公知の方法(非特許文献2参照)が知られているため、説明を省略する。ただし、「特徴点の位置群からの姿勢推定」には多くの既存技術があり、非特許文献2に記載された方法に限るものではない。 In addition, since the well-known method (refer nonpatent literature 2) is known about the method of estimating the position and orientation of a plate from the feature point position on the frame image F (n), description is abbreviate | omitted. However, “posture estimation from the position group of feature points” has many existing techniques and is not limited to the method described in Non-Patent Document 2.
次に、本実施例における特徴位置検出装置を図19に基づいて説明する。 Next, the feature position detection apparatus in the present embodiment will be described with reference to FIG.
図19中の特徴位置検出装置は、画像データ管理部204(後述する)から読み出した上述のようなプレートを撮像した画像データ(フレーム画像)群に対し、上述のサブピクセル精度の特徴位置の推定手順(ステップS401〜S403)及びステップS501及びS503を実行し、テンプレート管理部205(後述する)に格納されたテンプレート群を用いて、フレーム暫定特徴点位置及びフレーム特徴点位置を検出する特徴点位置検出部201,上述のテンプレート群の作成手順(ステップS101(もしくはS201〜S204),S102(もしくはS301〜S305),S103)及びステップS502を実行し、プレート姿勢検出部203(後述する)を用いて、テンプレート群を作成し、テンプレート管理部205(後述する)に格納するテンプレート作成部202,上述のステップS601〜S603の手順を用いて、フレーム暫定特徴点位置に基づき、開度を算出するプレート姿勢検出部203,特徴位置を検出する対象であるフレーム画像データを格納し管理する画像データ管理部204,テンプレート群を格納し管理するテンプレート管理部205,CPU(Central Processing Unit)やOS(Operating System)など含み、各部を制御する制御部(図示省略),メモリやハードディスクドライブ装置など含み、当該装置で使用する情報もしくはデータを記憶する記憶部(図示省略)を備え、例えば、コンピュータである。
The feature position detection apparatus in FIG. 19 estimates the feature position with the above-mentioned sub-pixel accuracy for the image data (frame image) group obtained by imaging the plate as described above read from the image data management unit 204 (described later). Feature point positions that execute the procedure (steps S401 to S403) and steps S501 and S503, and detect the frame temporary feature point position and the frame feature point position using the template group stored in the template management unit 205 (described later) The
なお、本実施例における特徴位置検出装置の各部の動作は、上述の手順に詳しく説明した。特徴位置検出装置の全部もしく一部をコンピュータで実行可能なプログラムとして実装しても良い。画像データ管理部204,テンプレート管理部205は、上述の記憶部に実装されても良い。
The operation of each part of the feature position detection apparatus in the present embodiment has been described in detail in the above procedure. All or part of the feature position detection device may be implemented as a program executable by a computer. The image
以下に、本実施例における特徴位置検出装置の動作の一例を説明する。なお、動作の詳細は、上述の手順を参照されたい。 Below, an example of operation | movement of the characteristic position detection apparatus in a present Example is demonstrated. Refer to the above procedure for details of the operation.
特徴点位置検出部201が、画像データ管理部204から取得したフレーム画像データF(n)に対して、前記テンプレート管理部に格納されたフレーム用テンプレート画像データ群T(n−1)を適用し、フレーム暫定特徴点位置KTP(n)を検出する(暫定特徴点位置検出手段)。
The feature point
次に、プレート姿勢検出部203が、検出されたフレーム暫定特徴点位置KTP(n)に基づき、前記フレーム番号nに応じた開度を算出する(開度算出手段)。
Next, the plate
次に、テンプレート作成部202が、算出されたフレーム番号nに応じた開度に基づいて、フレーム画像データF(n)上の各1交点市松模様に対応するフレーム用テンプレート群T(n)を生成する(フレーム用テンプレート群生成手段)。
Next, the
そして、特徴点位置検出部201が、フレーム画像データF(n)に、フレーム用テンプレート画像群T(n)を適用して、フレーム特徴点位置KP(n)を検出する(特徴点位置検出手段)。
Then, the feature point
さらに、開度算出手段は、前記フレーム暫定特徴点位置KTP(n)に基づいて、フレーム画像データF(n)上の消失点位置を算出し、算出した消失点位置に基づいて、フレーム画像データF(n)上の各1交点市松模様の交点位置であるフレーム暫定特徴点位置におけるフレーム番号nに応じた開度を算出する。 Further, the opening degree calculating means calculates a vanishing point position on the frame image data F (n) based on the frame provisional feature point position K TP (n), and based on the calculated vanishing point position, the frame image. An opening degree corresponding to the frame number n at the frame temporary feature point position, which is the intersection position of each one intersection checkered pattern on the data F (n), is calculated.
また、フレーム暫定特徴点位置検出手段は、画像データ管理部204から取得したフレーム画像データF(n)の各画素位置において、テンプレート管理部205に格納されたフレーム用テンプレート画像データ群T(n−1)を適用し、該フレーム用テンプレート画像データ群における特定のテンプレート画像データに最も類似する画素位置を初期類似画素位置として決定する。続いて、初期類似画素位置および該初期類似画素位置の8近傍画素位置に対して、前記テンプレート画像データ群T(n−1)の全てのテンプレート画像データを適用し、それらに最も類似する画素位置を8近傍類似画素位置と見做し、最も類似するテンプレートを8近傍類似画素位置テンプレートと見做す。そして、前記8近傍類似画素位置に対し、前記8近傍類似画素位置テンプレートの変換基準点領域における交点の座標を倍率Nで割算した値を加算し、その加算された値をフレーム暫定特徴点位置KTP(n)と見做す。
Further, the frame temporary feature point position detecting means detects a frame template image data group T (n−) stored in the
また、フレーム用テンプレート群生成手段が、濃淡領域境界線を僅かに傾けた濃淡領域を描画したプレートを撮像したテンプレート用画像データをテンプレート管理部205から取得し、テンプレート用画像データのスキャンラインごとに輝度パターンを取り込み、輝度ヒストグラムデータを作成する。続いて、作成したヒストグラムデータに基づいて、明部輝度および暗部輝度から中間輝を求め、理想輝度パターンであるステップ輝度パターンを作成する。続いて、作成したステップ輝度パターンにパラメタをσとするガウシアンカーネル及びパラメタをαとするエッジ強調カーネルを施した合成輝度パターンを作成する。続いて、理想ステップ輝度パターンにガウシアンカーネルとエッジ強調カーネルを施した結果と実際の輝度パターンとの差異を評価する式において、その式による評価値を最小とするパラメタを求め、求められたパラメタをエッジ強調処理するためのパラメタαと見做す。
Further, the frame template group generation means acquires template image data obtained by imaging a plate on which a gray area with a slight gray area boundary line slightly inclined is acquired from the
さらに、フレーム用テンプレート群生成手段が、基準点を有する作成すべき空白テンプレート画像データを倍率Nで変倍し、変倍されたことによって、該基準点が変換された変換基準点領域を有する変倍空白テンプレート画像データを作成する。続いて、前記変換基準点領域に含まれる点を交点とし、前記算出されたフレーム番号nに応じた開度を成すような濃淡領域境界線に基づいて、交点を1つのみ有する1交点市松模様を変形した模様である変形1交点市松模様を前記変倍空白テンプレートに描画した変倍テンプレート画像データを得る。そして、前記変形1交点市松模様を描画された変倍テンプレート画像データを1/Nに縮小し、作成すべきテンプレート画像データと同サイズであるテンプレート画像データを取得し、該テンプレート画像データをテンプレート画像データ群T(n)のテンプレート画像データとしてテンプレート管理部205に格納する。必要に応じて、取得するテンプレート画像データ数が所定の数に満たない場合には、前記変換基準点領域に含まれる交点を1画素分ずらす。
Further, the frame template group generation means scales the blank template image data to be created having a reference point by a magnification N, and the scale template has a conversion reference point region into which the reference point has been converted. Create double blank template image data. Subsequently, a one-intersection checkered pattern having only one intersection point based on a shaded region boundary line having an opening corresponding to the calculated frame number n as an intersection point, which is included in the conversion reference point region The scaled template image data obtained by drawing the deformed one-intersection checkered pattern, which is a pattern transformed from the above, on the scaled blank template is obtained. Then, the scaled template image data on which the modified 1 intersection checkerboard pattern is drawn is reduced to 1 / N, template image data having the same size as the template image data to be created is obtained, and the template image data is obtained as a template image. The data is stored in the
さらに、フレーム用テンプレート群生成手段が、推定したパラメタα及び前記エッジ強調カーネルによって、テンプレート管理部205に格納したテンプレート画像データ群T(n)の各テンプレート画像データの画像をエッジ強調し、改めてテンプレート画像データ群T(n)のテンプレート画像データとして、テンプレート管理部205に格納する。
Further, the frame template group generation means edge-enhances each template image data image of the template image data group T (n) stored in the
また、フレーム特徴点位置検出手段が、画像データ管理部204から取得したフレーム画像データF(n)の各画素位置において、テンプレート管理部205に格納されたフレーム番号nに応じたフレーム用テンプレート画像データ群T(n)を適用し、該特定のテンプレート画像データに最も類似する画素位置を初期類似画素位置として決定する。続いて、初期類似画素位置および該初期類似画素位置の8近傍画素位置に対して、前記フレーム番号nに応じたテンプレート画像データ群の全てのテンプレート画像データを適用し、それらに最も類似する画素位置を8近傍類似画素位置と見做し、最も類似するテンプレートを8近傍類似画素位置テンプレートと見做す。そして、前記8近傍類似画素位置に対し、前記8近傍類似画素位置テンプレートの変換基準点領域における交点の座標を倍率Nで割算した値を加算し、その加算された値をフレーム番号nに応じたサブピクセル精度の特徴位置と見做す。
Further, the frame feature point position detection means uses the frame template image data corresponding to the frame number n stored in the
なお、本実施形態及び実施例における方法もしくは手順における各ステップを手段(例えば、コンピュータプログラムで構成された手段)として構成し、特徴位置検出装置を実装しても良い。 It should be noted that each step in the method or procedure in the present embodiment and examples may be configured as means (for example, means configured by a computer program), and the feature position detection apparatus may be implemented.
上述の実施例によれば、ある位置姿勢にあるプレートを撮像した、1枚の画像データに対する特徴点位置検出方法を応用し、例えば、ゆっくりと位置姿勢が変化するプレートを撮像した一連の画像から次々と特徴点位置を検出する、といったトラッキングにも良好に適応できる。 According to the above-described embodiment, the feature point position detection method for one piece of image data obtained by imaging a plate at a certain position and orientation is applied, for example, from a series of images obtained by imaging a plate whose position and orientation changes slowly. It can be well adapted to tracking such as detecting feature point positions one after another.
以上、本発明の実施形態について説明したが、本発明は説明した実施形態に限定されるものでなく、各請求項に記載した範囲において各種の変形を行うことが可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the described embodiments, and various modifications can be made within the scope described in each claim.
例えば、画像データ管理部とテンプレート管理部を個別に備えたが、汎用的なデータベースにまとめて実装しても良い。 For example, although the image data management unit and the template management unit are individually provided, they may be mounted together in a general-purpose database.
また、本実施形態では、現フレームの画像データをF(n)とする一方、前フレームの画像データをF(n−1)として好ましい態様を説明しているが、本発明は、これに限定されることはなく、前フレームの画像データにF(n−2.3...k)を用いてもよい。 In the present embodiment, the image data of the current frame is F (n) while the image data of the previous frame is F (n−1). However, the present invention is not limited to this. F (n−2.3... K) may be used for the image data of the previous frame.
101…特徴点位置検出部
102…テンプレート作成部
103…画像データ管理部
104…テンプレート管理部
201…特徴点位置検出部
202…テンプレート作成部
203…プレート姿勢検出部
204…画像データ管理部
205…テンプレート管理部
BP…入力画像データ
C…カメラ
F2,F3…フレーム画像
H…エッジ強調カーネル
Hg…ヒストグラム
K1,K2…仮想線群
K3…濃淡領域境界線(仮想線)
K4,K5…濃淡領域境界線
KP…交点
KP1,KP11…基準点
KP2,KP3…フレーム特徴点位置
KP21,KP22,KP23,KP24…1交点市松模様の交点
KP21’,KP22’,KP23’,KP24’…特徴点(1交点市松模様の交点)
KPM…変換基準点領域
KTP2,KTP3…フレーム暫定特徴点位置
L1,L2…輝度曲線
LV11,LV12,LV21,LV22…直線
N…変換基準点領域の縦及び横のサイズ(倍率値)
PICH…市松模様
PICH1,PICH2,PICH3,PICH4…1交点市松模様
PICH1’,PICH2’,PICH3’,PICH4’…変形1交点市松模様
P11,P21,P31…プレート
Q…仮想正方形
SC…スキャンライン
T…テンプレート群
T1,T2,T3…フレーム用テンプレート群
V1,V2…消失点位置
Yj…ステップ輝度パターン
d…入力画像データの特定の画素位置
dt…テンプレートの画素位置の位置
t0…テンプレート
tB…空白テンプレート
tMB…変倍空白テンプレート
tMBX…変倍空白テンプレートの横サイズ
tMBY…変倍空白テンプレートの縦サイズ
tX…テンプレートの横サイズ
tY…テンプレートの縦サイズ
tMP…変倍テンプレート
tP…テンプレート
θ1,θ2…開度
DESCRIPTION OF
K 4 , K 5 ... shaded area boundary line K P ... intersection point K P1 , K P11 ... reference point K P2 , K P3 ... frame feature point position K P21 , K P22 , K P23 , K P24 ... intersection point of checkered pattern K P21 ′, K P22 ′, K P23 ′, K P24 ′… Characteristic points (intersection of 1 intersection checkerboard pattern)
K PM ... conversion reference point area K TP2 , K TP3 ... frame provisional feature point position L1, L2 ... luminance curve L V11 , L V12 , L V21 , L V22 ... straight line N ... vertical and horizontal sizes of the conversion reference point area ( Magnification value)
P ICH ... checkered pattern P ICH1, P ICH2, P ICH3 , P ICH4 ... 1 intersection checkered pattern P ICH1 ', P ICH2', P ICH3 ', P ICH4' ... deformation 1 intersection checkered pattern P11, P21, P31 ... plate Q ... Virtual square S C ... Scan line T ... Template group T 1 , T 2 , T 3 ... Frame template group V1, V2 ... Vanishing point position Y j ... Step luminance pattern d ... Specific pixel position of input image data d t ... template pixel position t 0 ... template t B ... blank template t MB ... scaling blank template t MBX ... scaling blank template horizontal size t MBY ... scaling blank template vertical size t X ... template horizontal size t Y ... Vertical size of template t MP ... Scaling template t P ... Template θ 1 , θ 2 ... Opening
Claims (10)
暫定特徴点位置検出手段が、現フレームの画像に対し、前フレーム用のテンプレートを適用して、現フレームの画像の暫定特徴位置を検出するステップと、
テンプレート作成手段が、前記暫定特徴位置に基づいて、現フレームの画像の特徴位置に対応する現フレーム用のテンプレートを作成するステップと、
特徴位置検出手段が、現フレームの画像に前記現フレーム用のテンプレートを適用して、現フレームの画像の特徴位置を検出するステップと、
を有することを特徴とする特徴位置検出方法。 A feature position detection method for detecting a feature position on an object from images of each frame obtained by continuously capturing the object,
A provisional feature point position detection unit that applies a template for a previous frame to an image of a current frame to detect a provisional feature position of the image of the current frame;
A template creating means creating a template for the current frame corresponding to the feature position of the image of the current frame based on the provisional feature position;
Applying a template for the current frame to the image of the current frame to detect a feature position of the image of the current frame;
A feature position detection method characterized by comprising:
前記図形が、スケールによって局部的見えに変化が生じないことを特徴とする請求項1または2のいずれか記載の特徴位置検出方法。 As the object, a plate in which a figure having the characteristic position is drawn at each of four vertices of a rectangle is used,
3. The feature position detection method according to claim 1, wherein the graphic does not change in local appearance depending on a scale.
濃淡二領域を有する前記プレートを撮像した画像の輝度パターンから輝度分布群を作成するステップと、
前記輝度分布群に基づいて、明部輝度と暗部輝度とから中間輝度理想輝度パターンを求め、理想輝度パターンであるステップ輝度パターンを作成するステップと、
前記ステップ輝度パターンにエッジ強調カーネルを施した合成輝度パターンを作成するステップと、
前記合成輝度パターンと実際の輝度パターンとの差異が最小となるパラメタを作成するステップと、
前記現フレームの画像を、前記パラメタおよび前記エッジ強調カーネルによってエッジ強調するステップと、
を実行することを特徴とする請求項3記載の特徴位置検出方法。 The template generation means is
Creating a luminance distribution group from a luminance pattern of an image obtained by imaging the plate having two shaded areas;
Based on the luminance distribution group, obtaining an intermediate luminance ideal luminance pattern from the bright portion luminance and the dark portion luminance, and creating a step luminance pattern that is an ideal luminance pattern;
Creating a composite luminance pattern obtained by applying an edge enhancement kernel to the step luminance pattern;
Creating a parameter that minimizes the difference between the synthesized luminance pattern and the actual luminance pattern;
Edge enhancing the current frame image with the parameters and the edge enhancement kernel;
The feature position detection method according to claim 3, wherein:
前記両濃淡領域線の交点は、同一平面上に配置されているとともに、方向が異なる二対の平行直線の交点に該当する4個の交点のうちいずれかの3個の交点の位置に一致し、
前記各濃淡領域線は、前記二対の平行直線に平行なことを特徴とする請求項3または4記載の特徴位置検出方法。 In the plate, at least three plane figures are drawn in which the areas formed by the first and second boundary lines are alternately shaded,
The intersections of the two shaded area lines are arranged on the same plane and coincide with the positions of any three of the four intersections corresponding to the intersections of two pairs of parallel straight lines having different directions. ,
5. The feature position detection method according to claim 3, wherein each of the shade area lines is parallel to the two pairs of parallel straight lines.
現フレームの画像に対し、前フレーム用のテンプレートを適用して、現フレームの画像の暫定特徴位置を検出する暫定特徴点位置検出手段と、
前記暫定特徴位置に基づいて、現フレームの画像の特徴位置に対応する現フレーム用のテンプレートを作成するテンプレート作成手段と、
現フレームの画像に前記現フレーム用のテンプレートを適用して、現フレームの画像の特徴位置を検出する特徴位置検出手段と、
を有することを特徴とする特徴位置検出装置。 A feature position detection device for detecting a feature position on an object from images of each frame obtained by continuously capturing the object,
Provisional feature point position detecting means for applying a template for the previous frame to the image of the current frame to detect the provisional feature position of the image of the current frame;
Template creating means for creating a template for the current frame corresponding to the feature position of the image of the current frame based on the provisional feature position;
Applying a template for the current frame to an image of the current frame to detect a feature position of the image of the current frame; and
A feature position detection apparatus comprising:
前記図形が、スケールによって局部的見えに変化が生じないことを特徴とする請求項6または7のいずれか記載の特徴位置検出方法。 As the object, a plate in which a figure having the characteristic position is drawn at each of four vertices of a rectangle is used,
The feature position detection method according to claim 6, wherein the graphic does not change in local appearance depending on a scale.
濃淡二領域を有する前記プレートを撮像した画像の輝度パターンから輝度分布群を作成する手段と、
前記輝度分布群に基づいて、明部輝度と暗部輝度とから中間輝度理想輝度パターンを求め、理想輝度パターンであるステップ輝度パターンを作成する手段と、
前記ステップ輝度パターンにエッジ強調カーネルを施した合成輝度パターンを作成する手段と、
前記合成輝度パターンと実際の輝度パターンとの差異が最小となるパラメタを作成する手段と、
前記現フレームの画像を、前記パラメタおよび前記エッジ強調カーネルによってエッジ強調する手段と、
を有することを特徴とする請求項8記載の特徴位置検出方法。 The template generation means includes
Means for creating a luminance distribution group from a luminance pattern of an image obtained by imaging the plate having two shaded areas;
Based on the luminance distribution group, an intermediate luminance ideal luminance pattern is obtained from the bright portion luminance and the dark portion luminance, and a step luminance pattern that is an ideal luminance pattern is created;
Means for creating a combined luminance pattern obtained by applying an edge enhancement kernel to the step luminance pattern;
Means for creating a parameter that minimizes the difference between the synthesized luminance pattern and the actual luminance pattern;
Means for edge enhancing the image of the current frame with the parameter and the edge enhancement kernel;
The feature position detection method according to claim 8, further comprising:
前記両濃淡領域線の交点は、同一平面上に配置されているとともに、方向が異なる二対の平行直線の交点に該当する4個の交点のうちいずれかの3個の交点の位置に一致し、
前記各濃淡領域線は、前記二対の平行直線に平行なことを特徴とする請求項8または9記載の特徴位置検出方法。 In the plate, at least three plane figures are drawn in which the areas formed by the first and second boundary lines are alternately shaded,
The intersections of the two shaded area lines are arranged on the same plane and coincide with the positions of any three of the four intersections corresponding to the intersections of two pairs of parallel straight lines having different directions. ,
10. The feature position detection method according to claim 8, wherein each of the shade area lines is parallel to the two pairs of parallel straight lines.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322500A JP2009146150A (en) | 2007-12-13 | 2007-12-13 | Feature position detection method and feature position detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322500A JP2009146150A (en) | 2007-12-13 | 2007-12-13 | Feature position detection method and feature position detection apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009146150A true JP2009146150A (en) | 2009-07-02 |
Family
ID=40916689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007322500A Pending JP2009146150A (en) | 2007-12-13 | 2007-12-13 | Feature position detection method and feature position detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009146150A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012001793A1 (en) * | 2010-06-30 | 2012-01-05 | 富士通株式会社 | Image processing program and image processing device |
JP2014053728A (en) * | 2012-09-06 | 2014-03-20 | Casio Comput Co Ltd | Image processing device and program |
JP2014053716A (en) * | 2012-09-06 | 2014-03-20 | Casio Comput Co Ltd | Image processing device and program |
JP2014230215A (en) * | 2013-05-24 | 2014-12-08 | 京セラ株式会社 | Camera calibration device and camera calibration method |
KR20190051463A (en) * | 2017-11-07 | 2019-05-15 | 현대모비스 주식회사 | Apparatus and method for detecting checkerboard corner point for camera calibration |
-
2007
- 2007-12-13 JP JP2007322500A patent/JP2009146150A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012001793A1 (en) * | 2010-06-30 | 2012-01-05 | 富士通株式会社 | Image processing program and image processing device |
US8675959B2 (en) | 2010-06-30 | 2014-03-18 | Fujitsu Limited | Computer-readable recording medium and image processing apparatus |
JP5472463B2 (en) * | 2010-06-30 | 2014-04-16 | 富士通株式会社 | Image processing program and image processing apparatus |
JP2014053728A (en) * | 2012-09-06 | 2014-03-20 | Casio Comput Co Ltd | Image processing device and program |
JP2014053716A (en) * | 2012-09-06 | 2014-03-20 | Casio Comput Co Ltd | Image processing device and program |
JP2014230215A (en) * | 2013-05-24 | 2014-12-08 | 京セラ株式会社 | Camera calibration device and camera calibration method |
KR20190051463A (en) * | 2017-11-07 | 2019-05-15 | 현대모비스 주식회사 | Apparatus and method for detecting checkerboard corner point for camera calibration |
KR102462025B1 (en) | 2017-11-07 | 2022-11-02 | 현대모비스 주식회사 | Apparatus and method for detecting checkerboard corner point for camera calibration |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6760957B2 (en) | 3D modeling method and equipment | |
JP6899189B2 (en) | Systems and methods for efficiently scoring probes in images with a vision system | |
JP6256475B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6464938B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2022541977A (en) | Image labeling method, device, electronic device and storage medium | |
US9030478B2 (en) | Three-dimensional graphics clipping method, three-dimensional graphics displaying method, and graphics processing apparatus using the same | |
CN108074237B (en) | Image sharpness detection method, device, storage medium and electronic device | |
JP7032871B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
Hua et al. | Extended guided filtering for depth map upsampling | |
JP2008185375A (en) | 3d shape calculation device of sar image, and distortion correction device of sar image | |
US20220136979A1 (en) | Information processing apparatus, information processing method, and non- transitory computer-readable storage medium | |
JP6579659B2 (en) | Light source estimation apparatus and program | |
US20150104068A1 (en) | System and method for locating fiducials with known shape | |
JP2009146150A (en) | Feature position detection method and feature position detection apparatus | |
JP4649559B2 (en) | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded | |
JP2011155412A (en) | Projection system and distortion correction method in the same | |
CN109242941B (en) | Three-dimensional object synthesis using visual guidance as part of a two-dimensional digital image | |
JP2008052598A (en) | Image position measuring method, image position measuring apparatus, and image position measuring program | |
US20140063235A1 (en) | Distance information estimating apparatus | |
JP7527532B1 (en) | IMAGE POINT CLOUD DATA PROCESSING APPARATUS, IMAGE POINT CLOUD DATA PROCESSING METHOD, AND IMAGE POINT CLOUD DATA PROCESSING PROGRAM | |
JP5728399B2 (en) | Measuring device, method and program | |
Jirasuwankul | Effect of text orientation to OCR error and anti-skew of text using projective transform technique | |
JP2020041950A (en) | Surveying device, surveying method, and program | |
JP5563390B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2018010359A (en) | Information processor, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090619 |