JP3513219B2 - Corresponding point matching method and apparatus - Google Patents
Corresponding point matching method and apparatusInfo
- Publication number
- JP3513219B2 JP3513219B2 JP16014894A JP16014894A JP3513219B2 JP 3513219 B2 JP3513219 B2 JP 3513219B2 JP 16014894 A JP16014894 A JP 16014894A JP 16014894 A JP16014894 A JP 16014894A JP 3513219 B2 JP3513219 B2 JP 3513219B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- block
- blocks
- corresponding point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Studio Circuits (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は対応点マッチング方法お
よび装置に係わり、例えば、2つの画像間の対応点を抽
出することにより、画像から視差または奥行き、あるい
は動きベクトルまたは速度を求めるようにする方法およ
び装置に用いて好適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a corresponding point matching method and apparatus, for example, extracting a corresponding point between two images to obtain a parallax or depth, or a motion vector or speed from the image. It is suitable for use in the method and apparatus.
【0002】[0002]
【従来の技術】従来、異なる撮像配置(例えば所定の基
線長、輻輳角を有する2台のカメラ)、或いは異なる2
時点、または異なる撮影位置(1台の単眼カメラを用い
た場合)で得られる2つの画像間の対応点を求め、それ
らの相対位置ベクトル或いは視差に基いて、画像から奥
行き(距離)情報を得たり、速度ベクトル(動き)情報
を得る手法が数多く提案されている。2. Description of the Related Art Conventionally, different imaging arrangements (for example, two cameras having a predetermined base line length and a convergence angle) or different two imaging arrangements are used.
Determining corresponding points between two images obtained at time points or at different shooting positions (when using a single monocular camera), and obtaining depth (distance) information from the images based on their relative position vector or parallax. In addition, many methods for obtaining velocity vector (motion) information have been proposed.
【0003】その中でも、画像を所定サイズのブロック
に分割し、2つの画像のブロック間の相関、或いは輝度
差の2乗和などに基いて最も類似度が高い2つのブロッ
クの中心画素を対応点として抽出する手法が良く適用さ
れる。Among them, the image is divided into blocks of a predetermined size, and the central pixel of the two blocks having the highest similarity based on the correlation between the blocks of the two images or the sum of squares of the brightness difference is the corresponding point. The method of extracting as is often applied.
【0004】最近、提案された方式の中には、分割ブロ
ックのサイズを初めは大きく取り、次第に小さくするこ
とにより、大まかな対応付けに基いて対応点探索範囲を
限定していく方法(Quam “Hierarchic
al Warp Stereo”Proc.of th
e DARPA Image Understandi
ng Workshop pp.149−155(19
84))がある。Recently, among the proposed methods, the size of a divided block is set to be large at first and then gradually reduced to limit the corresponding point search range based on rough correspondence (Quam " Hierarchic
al Warp Stereo "Proc. of the
e DARPA Image Understandi
ng Workshop pp. 149-155 (19
84)).
【0005】また、強度分布などの分散に基いてブロッ
クサイズを適応的に変える相関法(Kanade &
Okutomi “A stereo matchin
galgorithm with an adapti
ve window:Theory and expe
riment,Proc. of Internati
onal Conference on Comput
er Vision,pp.383−388,(199
0))などがある。Also, a correlation method (Kanade &
Okutomi "A stereo matchin
galgolithm with an adapti
ve window: Theory and expe
orientation, Proc. of International
onal Conference on Comput
er Vision, pp. 383-388, (199
0)) and so on.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記従
来例では分割されたブロック内の画像にカメラから見て
奥行きが変わる部分、または速度ベクトルが不連続に変
わる部分が一方の画像には写っているが、他方の画像に
は写っていない部分が存在するような場合がある。この
ような場合には、これらのブロック間の相関等に基いて
対応点を推定しても正しい対応点が求まらないという問
題点があった。However, in the above-mentioned conventional example, the image in the divided blocks has a portion where the depth changes as seen from the camera or a portion where the velocity vector changes discontinuously in one image. However, there may be a part that is not shown in the other image. In such a case, there is a problem that a correct corresponding point cannot be obtained even if the corresponding point is estimated based on the correlation between these blocks.
【0007】本発明は上述の問題点にかんがみ、複数の
画像間におけるそれぞれの対応点をブロックベースで高
精度に抽出できるようにすることを目的とする。In view of the above problems, it is an object of the present invention to enable block-based high-precision extraction of corresponding points between a plurality of images.
【0008】[0008]
【課題を解決するための手段】本発明の複数の画像のそ
れぞれのエッジまたは輪郭線を抽出する抽出処理と、上
記抽出処理によって抽出されたエッジまたは輪郭線と交
差しないように各画像を複数のブロックに分割する分割
処理と、上記分割処理によって複数に分割された各画像
のうち、一方の画像のブロックと他方の画像のブロック
との類似度に基いて、上記複数の画像間の対応点を決定
する対応点決定処理とを行うようにしている。According to the present invention, there is provided an extraction process for extracting respective edges or contour lines of a plurality of images, and a plurality of images for the respective images so as not to intersect the edges or contour lines extracted by the extraction process. Based on the degree of similarity between a block of one image and a block of the other image among the images divided into a plurality of pieces by the division processing of dividing into blocks, the corresponding points between the plurality of images are determined. Corresponding point determination processing is performed.
【0009】また、本発明の他の特徴とするところは、
複数の画像のそれぞれのエッジまたは輪郭線を抽出する
抽出処理と、上記抽出処理によって抽出されたエッジま
たは輪郭線と交差しないように各画像を複数のブロック
に分割する分割処理と、上記分割処理によって複数に分
割された各画像のうち、一方の画像のブロックと他方の
画像のブロックとの類似度に基いて、上記複数の画像間
の各点の視差または動きベクトルを推定する推定処理
と、上記各点の視差または動きベクトル推定値に基い
て、上記各画像を複数のブロックに再分割する再分割処
理と、上記再分割されたブロック同志の類似度に基いて
上記複数の画像間の対応点を決定する対応点決定処理と
を行うようにしている。Another feature of the present invention is that
Extraction processing for extracting each edge or contour line of a plurality of images, division processing for dividing each image into a plurality of blocks so as not to intersect the edges or contour lines extracted by the extraction processing, and the division processing An estimation process of estimating a parallax or a motion vector of each point between the plurality of images based on a similarity between a block of one image and a block of the other image among the plurality of divided images, Subdivision processing for subdividing each image into a plurality of blocks based on the parallax or motion vector estimation value of each point, and corresponding points between the plurality of images based on the similarity between the subdivided blocks And the corresponding point determining process for determining.
【0010】[0010]
【0011】[0011]
【0012】また、本発明のその他の特徴とするところ
は、複数の画像のそれぞれのエッジまたは輪郭線を抽出
する抽出手段と、上記抽出手段によって抽出されたエッ
ジまたは輪郭線と交差しないように各画像を複数のブロ
ックに分割する分割手段と、上記分割手段によって複数
に分割された各画像のうち、一方の画像のブロックと他
方の画像のブロックとの類似度に基いて、上記複数の画
像間の対応点を決定する対応点決定手段とを具備してい
る。Another feature of the present invention is that the extraction means for extracting the respective edges or contour lines of a plurality of images, and the extraction means for extracting each edge or contour line so as not to intersect with the edges or contour lines extracted by the extraction means. A dividing unit that divides an image into a plurality of blocks, and among the images divided into a plurality by the dividing unit, based on the similarity between a block of one image and a block of the other image, Corresponding point determining means for determining the corresponding points of.
【0013】また、本発明のその他の特徴とするところ
は、複数の画像のそれぞれのエッジまたは輪郭線を抽出
する抽出手段と、上記抽出手段によって抽出されたエッ
ジまたは輪郭線と交差しないように各画像を複数のブロ
ックに分割する分割手段と、上記分割手段によって複数
に分割された各画像のうち、一方の画像のブロックと他
方の画像のブロックとの類似度に基いて、上記複数の画
像間の各点の視差または動きベクトルを推定する推定手
段と、上記各点の視差または動きベクトル推定値に基い
て、上記各画像を複数のブロックに再分割する再分割手
段と、上記再分割されたブロック同志の類似度に基い
て、上記複数の画像間の対応点を決定するようにする対
応点決定手段とを具備している。Another feature of the present invention is that extraction means for extracting each edge or contour line of each of a plurality of images and each of the edges or contour lines so as not to intersect with the edge or contour line extracted by the extraction means. A dividing unit that divides an image into a plurality of blocks, and among the images divided into a plurality by the dividing unit, based on the similarity between a block of one image and a block of the other image, Of estimating the parallax or motion vector of each point, and a re-dividing means for sub-dividing each image into a plurality of blocks based on the parallax or motion vector estimation value of each point, and the sub-division And corresponding point determining means for determining corresponding points between the plurality of images based on the similarity between blocks.
【0014】[0014]
【0015】[0015]
【0016】[0016]
【作用】本発明は上記技術手段を有するので、複数の画
像のそれぞれから抽出されたエッジまたは輪郭線と交差
したりしないようにしながら、各画素を中心とする複数
のブロックに各画像が分割されるとともに、ブロックご
との類似度が検出され、かつ、これらの検出されたブロ
ックごとの類似度から対応点が抽出されるようになるの
で、対応点抽出をブロックベースで行うことが可能とな
る。Since the present invention has the above technical means, each image is divided into a plurality of blocks centered on each pixel while not intersecting with an edge or a contour line extracted from each of the plurality of images. At the same time, the similarity of each block is detected, and the corresponding points are extracted from the detected similarities of each block. Therefore, the corresponding points can be extracted on a block basis.
【0017】[0017]
【実施例】以下、本発明の対応点マッチング方法および
装置の一実施例を図面を参照して説明する。図1は、本
発明の対応点マッチング方法の第1の実施例を説明する
フローチャート、図5は本実施例の対応点マッチング方
法を行う装置の概略構成を示すブロック図である。な
お、以下の実施例においては、便宜上、所定の輻輳角と
基線長とを有するカメラ配置で撮像して得られる2つの
画像間の対応点を抽出する場合について説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the corresponding point matching method and apparatus of the present invention will be described below with reference to the drawings. FIG. 1 is a flow chart for explaining a first embodiment of the corresponding point matching method of the present invention, and FIG. 5 is a block diagram showing a schematic configuration of an apparatus for carrying out the corresponding point matching method of the present embodiment. In the following embodiments, for convenience, a case will be described in which corresponding points between two images obtained by imaging with a camera arrangement having a predetermined convergence angle and a base line length are extracted.
【0018】図1に示したように、先ず、最初のステッ
プS1では、左右カメラ(図5の左カメラ1L 、右カメ
ラ1R )からの画像を画像メモリ2にそれぞれ入力し、
ステップS2で各画像のエッジ抽出処理を行う。As shown in FIG. 1, first, in the first step S1, the images from the left and right cameras (the left camera 1 L and the right camera 1 R in FIG. 5) are input to the image memory 2, respectively.
In step S2, edge extraction processing of each image is performed.
【0019】エッジ抽出方法としては、所定サイズのカ
ウシアンと画像とのコンボリューションをとった後、ラ
プラシアン演算により2次微分を行ったデータのゼロク
ロス点を検出する方法などが適用されるが、本発明にお
いては特定の方式に限定されるものではない。As the edge extraction method, a method of detecting the zero-cross point of the data obtained by performing the second derivative by the Laplacian operation after the convolution of a predetermined size of the Kaussian and the image is applied. Is not limited to a particular method.
【0020】一般的に、エッジ抽出処理によって不要な
エッジ(画像中のノイズ、或いは方式特有の要因によ
る)が生じる。本実施例では、このような不要なエッジ
を取り除くために、ステップS3で不要エッジ除去処理
を行っている。この不要エッジ除去処理は、抽出された
エッジの長さが所定値より短い場合には、不要エッジと
みなし、除去または無視するようにする処理である。In general, the edge extraction process causes unnecessary edges (due to noise in the image or factors specific to the method). In this embodiment, in order to remove such an unnecessary edge, the unnecessary edge removal processing is performed in step S3. The unnecessary edge removing process is a process for removing an unnecessary edge and removing or ignoring it when the length of the extracted edge is shorter than a predetermined value.
【0021】上記不要エッジ除去処理に関する他の方法
としては、エッジ強度(例えば、ローパスフィルタ後の
画像の階空間微分の絶対値の和|∂I* /∂x|+|I
* /∂y|、I* はフィルタ後の画像)が所定レベル以
下の場合、不要エッジとみなす。なお、上記ステップS
3の処理は省略してもかまわない。As another method relating to the above-mentioned unnecessary edge removal processing, the edge strength (for example, the sum of the absolute values of the stepwise space differential of the image after the low-pass filter | ∂I * / ∂x | + | I
* / ∂y |, I * is the image after filtering) is below a predetermined level, it is considered as an unnecessary edge. Note that the above step S
The process of 3 may be omitted.
【0022】次に、ステップS4では、画像の各画素を
中心に一定サイズのブロックに分割する。そして、次の
ステップS5では、複数に分割した各ブロック内にエッ
ジが存在するか否かを判定し、ステップS6で交差有り
を判断した場合には、ステップS7に進み、ブロックの
中心画像とエッジとの距離に基いてそのエッジと交差し
ないようにブロックサイズを縮小し、その後、ステップ
S5に戻る。Next, in step S4, each pixel of the image is divided into blocks each having a fixed size. Then, in the next step S5, it is determined whether or not an edge exists in each of the blocks divided into a plurality of blocks, and if it is determined in step S6 that there is an intersection, the process proceeds to step S7, and the center image of the block and the edge are detected. The block size is reduced based on the distance between and so as not to intersect the edge, and then the process returns to step S5.
【0023】ステップS6の判断の結果、交差無しと判
断した場合には、次に、ステップS8に進み、交差無し
ブロックに分割する処理が完了したか否かを判断し、完
了していない場合は、ステップS4に戻る。そして、ス
テップS4において、ブロックサイズを所定幅だけ縮小
して更にエッジ有無判定を行い、エッジが存在しなくな
るまで、その処理過程を繰り返す。このようにして、各
画素を中心とする全ブロックについてエッジ交差が存在
しないように分割し直す。When it is determined that there is no intersection as a result of the determination in step S6, the process proceeds to step S8, and it is determined whether or not the process of dividing into blocks without intersection is completed. , And returns to step S4. Then, in step S4, the block size is reduced by a predetermined width to further determine the presence / absence of an edge, and the processing steps are repeated until there is no edge. In this way, all blocks centered on each pixel are redivided so that there is no edge intersection.
【0024】そして、交差無しブロックに分割する処理
が完了した場合には、ステップS9に進み、ブロック相
関による対応点抽出を行う。Then, when the process of dividing into blocks without crossing is completed, the process proceeds to step S9, and corresponding points are extracted by block correlation.
【0025】次に、ブロック間類似度による対応点抽出
方法について説明する。本実施例では、前述したブロッ
ク分割の結果、画素によってブロックサイズが異なる場
合があるが、これに対処するために類似度を計算する2
つの画像から抽出された2つのブロックの形状の中心画
素を一致させて状態での重なり部分について行う。い
ま、画素(i,j)を中心とするブロックを
「Ik i,j 」とする(kは画像の番号)と、類似度の尺
度としては,Next, a method of extracting corresponding points based on the similarity between blocks will be described. In the present embodiment, as a result of the above-described block division, the block size may differ depending on the pixel, but in order to cope with this, the similarity is calculated 2
The central pixels of the shapes of the two blocks extracted from one image are made to coincide with each other, and the overlapping portion in the state is performed. Now, let a block centering on a pixel (i, j) be “I k i, j ” (k is an image number), and as a measure of similarity,
【0026】[0026]
【数1】 [Equation 1]
【0027】[0027]
【数2】 [Equation 2]
【0028】[0028]
【数3】 [Equation 3]
【0029】[0029]
【数4】 [Equation 4]
【0030】などが用いられるが、これら以外の尺度を
用いても、勿論構わない。但し、C1、C2 、C3 、C
4 のうち、基本的にはC2 、C4 は相互相関を表し、C
1 、C 3 は2つのブロック間を表す。したがって、対応
点を抽出するためにはC2 、C 4 については最大値を与
えるブロックIR (i´、j´)が最も良くマッチング
する。また、C1 、C3 については、最小値を与えるブ
ロックIR (i´、j´)が左側画像中のブロックIL
(i、j)に最も良くマッチングする。Etc. are used, but scales other than these are
You can use it, of course. However, C1, C2, C3, C
FourOf these, basically C2, CFourRepresents cross-correlation, and C
1, C 3Indicates between two blocks. Therefore, the correspondence
C to extract points2, C FourGive maximum value for
Eru Block IR(I ', j') matches best
To do. Also, C1, C3For the
Rock IR(I ', j') is the block I in the left imageL
Best match to (i, j).
【0031】したがって、このような画素の組み合わせ
((i、j)と(i´、j´))が抽出されるべき対応
点となる。Therefore, such a pixel combination ((i, j) and (i ', j')) is a corresponding point to be extracted.
【0032】上述したように、図5は立体撮像系におい
て、本実施例の処理部を組み込んだ立体情報抽出系のシ
ステム構成図である。図5中、1L および1R は左右カ
メラ、2は画像メモリ、3は図1に示す処理系を含む対
応点抽出処理部、4は対応点から視差、或いは距離を求
め、適当な補間処理を行って立体形状などを復元する形
状復元処理部、5は結果を表示するモニタである。As described above, FIG. 5 is a system configuration diagram of the stereoscopic information extraction system in which the processing unit of this embodiment is incorporated in the stereoscopic imaging system. In FIG. 5, 1 L and 1 R are left and right cameras, 2 is an image memory, 3 is a corresponding point extraction processing unit including the processing system shown in FIG. 1, 4 is a parallax or distance from the corresponding points, and an appropriate interpolation processing is performed. The shape restoration processing unit 5 that performs the process to restore the three-dimensional shape and the like is a monitor that displays the result.
【0033】図6は、本実施例の処理を実際の画像(立
方体)に適用した場合のステップS3以降のブロック分
割過程を示す。図中、Lの列は左のカメラで得た画像、
Rの列は右カメラで得た画像を示している。FIG. 6 shows a block division process after step S3 when the process of this embodiment is applied to an actual image (cube). In the figure, the column of L is the image obtained by the left camera,
The R column shows the image obtained with the right camera.
【0034】図6において、(A)は、図1のフローチ
ャートのステップS3における不要エッジ除去処理で不
要エッジを除去した後のエッジ画像を示している。In FIG. 6, (A) shows an edge image after the unnecessary edges are removed by the unnecessary edge removal processing in step S3 of the flowchart of FIG.
【0035】また、(B)は、図1のフローチャートの
ステップS4の標準ブロック分割で標準サイズのブロッ
クで分割した後の画像を示し、各ブロックの中心はその
ブロックの代表点を表している。実際には、同じサイズ
のブロックを各画素ごとに設定するので、一般的には、
ブロック同志は重なり合うが、便宜上、図中では重なり
間隙のないように表示している。Further, (B) shows an image after being divided into blocks of a standard size in the standard block division of step S4 of the flowchart of FIG. 1, and the center of each block represents a representative point of the block. Actually, since blocks of the same size are set for each pixel, in general,
Although the blocks are overlapped with each other, for the sake of convenience, the blocks are shown so as not to overlap with each other.
【0036】さらに、(C)は、図1のフローチャート
のステップS5→ステップS6→ステップS5などの各
処理をループで行って得られるエッジ交差なしの分割
を、上述した(B)と同様に示した図である。この場
合、ブロックの形状は矩形または三角形(直角三角形)
となる。特に、三角形のブロックは立方体の輪郭(エッ
ジ)に沿ったブロック分割を行った結果生じる。一般的
には、物体の輪郭の一部を含んだ形状のブロックが生じ
る。Further, (C) shows the division without edge crossing obtained by performing each processing such as step S5 → step S6 → step S5 of the flowchart of FIG. 1 in a loop in the same manner as (B) described above. It is a figure. In this case, the block shape is rectangular or triangular (right triangle)
Becomes In particular, triangular blocks result from block division along the contour (edge) of a cube. Generally, a block having a shape including a part of the contour of the object is generated.
【0037】次に、図2を参照しながら本発明の第2の
実施例を説明する。図2は、本発明の第2の実施例の処
理手順を示すフローチャートである。なお、図2におけ
るステップS1からステップS9までの各ステップは第
1実施例と同じである。Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 2 is a flow chart showing the processing procedure of the second embodiment of the present invention. Each step from step S1 to step S9 in FIG. 2 is the same as that of the first embodiment.
【0038】しかし、本実施例ではステップS10にお
いて、更にエッジに隣接するブロック間での視差或いは
動きベクトル推定値、すなわち、対応点間距離の差(偏
差)を求めるようにしている。However, in this embodiment, in step S10, the parallax or motion vector estimation value between the blocks adjacent to the edge, that is, the difference (deviation) between the corresponding points is calculated.
【0039】上記検出した対応点間距離の差(偏差)が
基準値よりも大きいか否かを、次のステップS11で判
断し、そのエッジは遮蔽輪郭(或いは視差エッジ、速度
エッジ)とみなして、これをはさむブロック分割は変更
しないようにしている。そして、基準値より大きければ
ステップS12に進み、全対応点を算出したか否かを判
断し、全て終了した場合にエンドとなる。In the next step S11, it is judged whether or not the difference (deviation) in the detected distances between corresponding points is larger than the reference value, and the edge is regarded as a shielding contour (or parallax edge, velocity edge). , The block division that sandwiches this is not changed. If it is larger than the reference value, the process proceeds to step S12, it is determined whether or not all corresponding points have been calculated, and if all are completed, the process ends.
【0040】一方、ステップS11の判断の結果、基準
値以下であれば、そのエッジはなめらかな物体表面上の
模様、照明の分布などによって生じる強度エッジとみな
し、ステップS3に戻る。この場合には、第1の実施例
で説明したようなエッジと交差しないブロック分割は不
要であり、エッジ上の画素を含むブロック分割を行って
対応点を求めるのが本実施例の特徴である。なお、ステ
ップS10では、偏差として各点での視差勾配の差、動
きベクトル勾配の差を求めるようにしてもよい。On the other hand, if the result of determination in step S11 is less than the reference value, the edge is considered to be an intensity edge caused by a smooth pattern on the object surface, illumination distribution, etc., and the process returns to step S3. In this case, the block division that does not intersect the edge as described in the first embodiment is unnecessary, and the feature of the present embodiment is that the corresponding points are obtained by performing the block division including the pixels on the edge. . In step S10, the difference in the parallax gradient and the difference in the motion vector gradient at each point may be obtained as the deviation.
【0041】次に、図3を参照しながら本発明の第3の
実施例を説明する。図3は本発明の第3の実施例の処理
手順を示すフローチャートである。図3に示したよう
に、この第3の実施例ではエッジ抽出処理(ステップS
2)および不要エッジ除去(ステップS3)を行った
後、ステップS4においてエッジまたはエッジセグメン
トベースでの対応点抽出を行う。Next, a third embodiment of the present invention will be described with reference to FIG. FIG. 3 is a flowchart showing the processing procedure of the third embodiment of the present invention. As shown in FIG. 3, in the third embodiment, edge extraction processing (step S
2) and unnecessary edge removal (step S3), corresponding points are extracted based on edges or edge segments in step S4.
【0042】ステップS4によってエッジ上の点同志で
の左、右画像中の対応点(対応点の有無も含めて)が求
まり、その距離(或いは視差、動きベクトル)がステッ
プS5で算出される。In step S4, corresponding points (including presence or absence of corresponding points) in the left and right images of points on the edge are obtained, and the distance (or parallax or motion vector) is calculated in step S5.
【0043】次のステップS6では、図2のステップS
9で求めた距離が基準値より大きいか、対応点が存在し
ない場合に、そのエッジが画像をブロックに分割する際
にブロックと交差したり、中に含まれることを禁止する
ためのフラグ、或いはラベルを立てる処理を行う。In the next step S6, step S of FIG.
If the distance obtained in 9 is larger than the reference value or if there is no corresponding point, the edge crosses the block when dividing the image into blocks, or a flag for prohibiting inclusion in the flag, or Perform the process to set the label.
【0044】具体的には、各画素(i,j)ごとにラベ
ルe(i,j)を持ち、はじめにe(i,j)=0に初
期化しておいて、禁止フラグが立つ画素はe(i,j)
=1とする。Specifically, each pixel (i, j) has a label e (i, j), and is initialized to e (i, j) = 0 first, and a pixel for which a prohibition flag is set is e. (I, j)
= 1.
【0045】ステップS6以降の処理は、禁止フラグの
立ったエッジと交差しないようにしながらブロック分割
する処理(ステップS7,ステップS8,ステップS1
0)と、その終了後にブロック間類似度に基づく対応点
抽出(ステップS12)が続く。特に、本実施例ではス
テップS8での交差判定は、禁止フラグの値に基いて行
われるようにしている。In the processes after step S6, the process is divided into blocks so as not to intersect the edges with the prohibition flag (steps S7, S8 and S1).
0) and, after that, extraction of corresponding points based on the similarity between blocks (step S12) follows. In particular, in this embodiment, the intersection determination in step S8 is made based on the value of the prohibition flag.
【0046】次に、図4のフローチャートを参照して第
4の実施例を説明する。本実施例では、ステップS2に
おいて各画素を中心に所定サイズでブロック分割する。
次に、ステップS3において、上述した第1の実施例と
同様に所定の尺度で求めたブロック間の類似度に基づき
対応点を推定する。Next, a fourth embodiment will be described with reference to the flowchart of FIG. In this embodiment, in step S2, each pixel is divided into blocks with a predetermined size.
Next, in step S3, corresponding points are estimated based on the degree of similarity between blocks obtained by a predetermined scale as in the first embodiment described above.
【0047】次に、ステップS4に進み、近傍の画素で
の推定から対応点間距離の勾配を算出する。次のステッ
プS5では、前のステップS4で算出した勾配値が基準
範囲外にあるときは2つの画像間でその画素において視
差(或いは動きベクトル)が不連続に変化しているもの
とみなし、不連続ラベル(禁止フラグ)e(i,j)を
1にセットする(e(i,j)は0に予め初期化されて
いるものとする)。Next, in step S4, the gradient of the distance between the corresponding points is calculated from the estimation in the neighboring pixels. In the next step S5, if the gradient value calculated in the previous step S4 is outside the reference range, it is considered that the parallax (or motion vector) in the pixel between the two images changes discontinuously, and The continuous label (prohibition flag) e (i, j) is set to 1 (e (i, j) is assumed to be initialized to 0 in advance).
【0048】次に、ステップS6においてブロック内の
不連続性を判断し、ブロック内部でe(i,j)=1な
る不連続部が所定のサイズ(長さ)以上で存在する場合
には不連続部ありと判定して、ステップS7に進む。Next, in step S6, the discontinuity in the block is judged. If the discontinuity of e (i, j) = 1 exists in the block with a predetermined size (length) or more, the discontinuity is determined. It is determined that there is a continuous portion, and the process proceeds to step S7.
【0049】ステップS7では、ブロックサイズを所定
の方法で縮小する処理を行い、その後、ステップS3に
戻って再び対応点推定から不連続性判定での処理を行
う。このような処理を繰り返し行う。In step S7, a process of reducing the block size by a predetermined method is performed, and thereafter, the process returns to step S3 and the process of discontinuity determination from the corresponding point estimation is performed again. Such processing is repeated.
【0050】次に、ステップS8において、全ブロック
内部に不連続部が存在するか否かを判断し、存在する場
合にはステップS2に戻り、上述した処理を繰り返し行
い、最終的に対応点を得る。Next, in step S8, it is determined whether or not there is a discontinuous portion in all the blocks. If there is a discontinuous portion, the process returns to step S2, the above-described processing is repeated, and finally the corresponding points are determined. obtain.
【0051】なお、以上の実施例ではブロックの形状を
基本的に縦m画素、横n画素の長方形または正方形とし
た。しかし、本発明の場合には、必ずしもこれらの形状
に限定されるものではなく、不連続部の形状に応じた任
意の多角形でもよい。ただし、その場合はブロックの中
心(或いは幾何学的重心)はそのブロックを代表する画
素であることはいうまでもない。In the above embodiments, the block shape is basically a rectangle or square having m pixels vertically and n pixels horizontally. However, in the case of the present invention, the shape is not necessarily limited to these shapes, and may be an arbitrary polygon according to the shape of the discontinuous portion. However, in that case, it goes without saying that the center of the block (or the geometric center of gravity) is a pixel that represents that block.
【0052】次に、図7を参照しながら本発明の対応点
マッチング装置の一例を説明する。図7において、は
画像メモリ、は分割手段、は分割画像記憶手段、
は推定手段、は判定手段、は再分割手段、は再分
割画像記憶手段、は対応点決定手段、はモニタであ
る。Next, an example of the corresponding point matching device of the present invention will be described with reference to FIG. In FIG. 7, is an image memory, is a dividing means, is a divided image storage means,
Is an estimation means, is a determination means, is a re-division means, is a re-divided image storage means, is a corresponding point determination means, and is a monitor.
【0053】画像メモリは、外部から入力される映像
信号を取り込んで格納しておくためのメモリであり、こ
こに記憶されている画像が分割手段によって所定数に
分割される。そして、上記分割手段によって分割され
た画像が、分割画像記憶手段に記憶される。The image memory is a memory for fetching and storing a video signal inputted from the outside, and the image stored therein is divided into a predetermined number by the dividing means. Then, the image divided by the dividing unit is stored in the divided image storage unit.
【0054】上記分割画像記憶手段に記憶された分割
画像は、推定手段により複数の画像間の各点の視差また
は動きベクトルが推定される。この推定は、一方の画像
のブロックと他方の画像のブロックとの類似度に基いて
行われるものであり、上記複数の画像間の各点の視差ま
たは動きベクトルに基づいて行われる。For the divided images stored in the divided image storage means, the estimation means estimates the parallax or motion vector of each point between the plurality of images. This estimation is performed based on the similarity between the block of one image and the block of the other image, and is performed based on the parallax or motion vector of each point between the plurality of images.
【0055】上記推定手段によって得られた推定値
は、次段に設けられている判定手段に与えられる。判
定手段は、与えられた推定値の勾配が基準範囲内にな
るか否かを判定し、その判定結果を再分割手段に供給
する。The estimated value obtained by the estimating means is given to the determining means provided in the next stage. The determination means determines whether or not the gradient of the given estimated value falls within the reference range, and supplies the determination result to the subdivision means.
【0056】再分割手段は、上記分割画像記憶手段
に記憶されている分割画像を、上記判定手段から与え
られる判定結果に基いて再分割し、それを再分割画像記
憶手段に記憶する。The subdivision means subdivides the divisional image stored in the divisional image storage means based on the determination result given from the determination means, and stores it in the redivided image storage means.
【0057】上記再分割画像記憶手段に記憶されてい
る再分割画像は、対応点決定手段により対応点が決定
される。上記決定は、ブロック同志の類似度に基いて行
われ、その結果がモニタに表示されるようになされて
いる。Corresponding points are determined by the corresponding point determining means in the re-divided image stored in the re-divided image storage means. The above-mentioned decision is made based on the similarity between the blocks, and the result is displayed on the monitor.
【0058】[0058]
【発明の効果】本発明は上述したように、複数の画像の
それぞれから抽出されたエッジまたは輪郭線と交差した
りしないようにしながら、各画像を各画素を中心とする
複数のブロックに分割するとともに、ブロックごとの類
似度を検出し、上記検出したブロックごとの類似度から
対応点を抽出するようにしたので、高精度な対応点抽出
をブロックベースで行うことができる。As described above, the present invention divides each image into a plurality of blocks centered on each pixel while not intersecting with an edge or a contour line extracted from each of the plurality of images. At the same time, the similarity of each block is detected, and the corresponding points are extracted from the detected similarity of each block. Therefore, highly accurate corresponding point extraction can be performed on a block basis.
【図1】本発明の第1の実施例の処理手順を示すフロー
チャートである。FIG. 1 is a flowchart showing a processing procedure of a first embodiment of the present invention.
【図2】本発明の第2の実施例の処理手順を示すフロー
チャートである。FIG. 2 is a flowchart showing a processing procedure of a second embodiment of the present invention.
【図3】本発明の第3の実施例の処理手順を示すフロー
チャートである。FIG. 3 is a flowchart showing a processing procedure of a third embodiment of the present invention.
【図4】本発明の第4の実施例の処理手順を示すフロー
チャートである。FIG. 4 is a flowchart showing a processing procedure of a fourth embodiment of the present invention.
【図5】本発明を適用した立体情報抽出システムの構成
図である。FIG. 5 is a configuration diagram of a stereoscopic information extraction system to which the present invention is applied.
【図6】ブロック分割の過程(始めと終わり)の説明図
である。FIG. 6 is an explanatory diagram of a block division process (beginning and end).
【図7】本発明の対応点マッチング装置の概略を示す機
能構成図である。FIG. 7 is a functional configuration diagram showing an outline of a corresponding point matching device of the present invention.
【符号の説明】 画像メモリ 分割手段 分割画像記憶手段 推定手段 判定手段 再分割手段 再分割画像記憶手段 対応点決定手段 モニタ[Explanation of symbols] Image memory Dividing means Divided image storage means Estimating means Judgment means Subdivision means Redivided image storage means Corresponding point determination means monitor
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平3−291766(JP,A) 特開 平5−174149(JP,A) 特開 平2−238580(JP,A) 特開 平7−160664(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 G06T 7/00 ─────────────────────────────────────────────────── --Continued from the front page (56) Reference JP-A-3-291766 (JP, A) JP-A-5-174149 (JP, A) JP-A-2-238580 (JP, A) JP-A-7- 160664 (JP, A) (58) Fields surveyed (Int.Cl. 7 , DB name) G01B 11/00-11/30 G06T 7/00
Claims (4)
郭線を抽出する抽出処理と、 上記抽出処理によって抽出されたエッジまたは輪郭線と
交差しないように各画像を複数のブロックに分割する分
割処理と、 上記分割処理によって複数に分割された各画像のうち、
一方の画像のブロックと他方の画像のブロックとの類似
度に基いて、上記複数の画像間の対応点を決定する対応
点決定処理とを行うことを特徴とする対応点マッチング
方法。1. An extraction process for extracting each edge or contour line of a plurality of images, and a division process for dividing each image into a plurality of blocks so as not to intersect the edges or contour lines extracted by the extraction process. , Among the images divided into a plurality by the above division processing,
A corresponding point matching method characterized by performing corresponding point determination processing for determining corresponding points between the plurality of images based on the degree of similarity between a block of one image and a block of the other image.
郭線を抽出する抽出処理と、 上記抽出処理によって抽出されたエッジまたは輪郭線と
交差しないように各画像を複数のブロックに分割する分
割処理と、 上記分割処理によって複数に分割された各画像のうち、
一方の画像のブロックと他方の画像のブロックとの類似
度に基いて、上記複数の画像間の各点の視差または動き
ベクトルを推定する推定処理と、 上記各点の視差または動きベクトルの推定値に基いて、
上記各画像を複数のブロックに再分割する再分割処理
と、 上記再分割されたブロック同志の類似度に基いて上記複
数の画像間の対応点を決定する対応点決定処理とを行う
ことを特徴とする対応点マッチング方法。2. An extraction process for extracting each edge or contour line of each of a plurality of images, and a division process for dividing each image into a plurality of blocks so as not to intersect with the edges or contour lines extracted by the extraction process. , Among the images divided into a plurality by the above division processing,
An estimation process of estimating the parallax or motion vector of each point between the plurality of images based on the similarity between the block of one image and the block of the other image, and the estimated value of the parallax or motion vector of each point. Based on
It is characterized by performing a subdivision process for subdividing each of the images into a plurality of blocks, and a corresponding point determination process for determining corresponding points between the plurality of images based on the similarity between the redivided blocks. Corresponding point matching method.
郭線を抽出する抽出手段と、 上記抽出手段によって抽出されたエッジまたは輪郭線と
交差しないように各画像を複数のブロックに分割する分
割手段と、 上記分割手段によって複数に分割された各画像のうち、
一方の画像のブロックと他方の画像のブロックとの類似
度に基いて、上記複数の画像間の対応点を決定する対応
点決定手段とを具備することを特徴とする対応点マッチ
ング装置。3. Extraction means for extracting each edge or contour line of each of the plurality of images, and division means for dividing each image into a plurality of blocks so as not to intersect with the edges or contour lines extracted by the extraction means. , Of the images divided into a plurality by the dividing means,
A corresponding point matching device comprising: corresponding point determining means for determining corresponding points between the plurality of images based on a similarity between a block of one image and a block of the other image.
郭線を抽出する抽出手段と、 上記抽出手段によって抽出されたエッジまたは輪郭線と
交差しないように各画像を複数のブロックに分割する分
割手段と、 上記分割手段によって複数に分割された各画像のうち、
一方の画像のブロックと他方の画像のブロックとの類似
度に基いて、上記複数の画像間の各点の視差または動き
ベクトルを推定する推定手段と、 上記各点の視差または動きベクトルの推定値に基いて、
上記各画像を複数のブロックに再分割する再分割手段
と、 上記再分割されたブロック同志の類似度に基いて、上記
複数の画像間の対応点を決定するようにする対応点決定
手段とを具備することを特徴とする対応点マッチング装
置。4. Extraction means for extracting the respective edges or contour lines of a plurality of images, and dividing means for dividing each image into a plurality of blocks so as not to intersect the edges or contour lines extracted by the extraction means. , Of the images divided into a plurality by the dividing means,
Estimating means for estimating the parallax or motion vector of each point between the plurality of images based on the similarity between the block of one image and the block of the other image, and the estimated value of the parallax or motion vector of each point. Based on
A re-dividing unit that sub-divides each image into a plurality of blocks, and a corresponding point determining unit that determines a corresponding point between the plurality of images based on the similarity between the re-divided blocks. A corresponding point matching device characterized by being provided.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16014894A JP3513219B2 (en) | 1994-07-12 | 1994-07-12 | Corresponding point matching method and apparatus |
US08/503,405 US5734743A (en) | 1994-07-12 | 1995-07-11 | Image processing method and apparatus for block-based corresponding point extraction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16014894A JP3513219B2 (en) | 1994-07-12 | 1994-07-12 | Corresponding point matching method and apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003138454A Division JP3848294B2 (en) | 2003-05-16 | 2003-05-16 | Corresponding point matching method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0829126A JPH0829126A (en) | 1996-02-02 |
JP3513219B2 true JP3513219B2 (en) | 2004-03-31 |
Family
ID=15708914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16014894A Expired - Fee Related JP3513219B2 (en) | 1994-07-12 | 1994-07-12 | Corresponding point matching method and apparatus |
Country Status (2)
Country | Link |
---|---|
US (1) | US5734743A (en) |
JP (1) | JP3513219B2 (en) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2724033B1 (en) * | 1994-08-30 | 1997-01-03 | Thomson Broadband Systems | SYNTHESIS IMAGE GENERATION METHOD |
US6493465B2 (en) * | 1996-02-21 | 2002-12-10 | Canon Kabushiki Kaisha | Matching point extracting method and apparatus therefor |
EP1693844A3 (en) * | 1996-02-28 | 2006-10-11 | Matsushita Electric Industrial Co., Ltd. | High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device |
US6549650B1 (en) * | 1996-09-11 | 2003-04-15 | Canon Kabushiki Kaisha | Processing of image obtained by multi-eye camera |
JP2910698B2 (en) * | 1996-10-15 | 1999-06-23 | 日本電気株式会社 | Three-dimensional structure estimation method and apparatus |
EP2259585B1 (en) * | 1996-12-04 | 2013-10-16 | Panasonic Corporation | Optical disk for high resolution and three dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus |
US6526157B2 (en) * | 1997-08-01 | 2003-02-25 | Sony Corporation | Image processing apparatus, image processing method and transmission medium |
GB2328355B (en) * | 1997-08-05 | 2002-04-17 | Canon Kk | Image processing apparatus |
US6647146B1 (en) | 1997-08-05 | 2003-11-11 | Canon Kabushiki Kaisha | Image processing apparatus |
GB2328127B (en) * | 1997-08-05 | 2002-04-10 | Canon Kk | Image processing apparatus |
KR100307883B1 (en) * | 1998-04-13 | 2001-10-19 | 박호군 | Method for measuring similarity by using a matching pixel count and apparatus for implementing the same |
JP2002541568A (en) | 1999-03-31 | 2002-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for detecting the amount of movement of a pixel block from a first image to a second image of a scene |
US6975755B1 (en) * | 1999-11-25 | 2005-12-13 | Canon Kabushiki Kaisha | Image processing method and apparatus |
EP1126710A1 (en) * | 2000-02-15 | 2001-08-22 | Telefonaktiebolaget L M Ericsson (Publ) | A method and an apparatus for video mixing of bit streams |
US6972796B2 (en) * | 2000-02-29 | 2005-12-06 | Matsushita Electric Industrial Co., Ltd. | Image pickup system and vehicle-mounted-type sensor system |
US7454123B2 (en) * | 2002-06-06 | 2008-11-18 | Intel Corporation | Personal video recorder having reduced overscan coding |
JP4275378B2 (en) * | 2002-09-27 | 2009-06-10 | 富士重工業株式会社 | Stereo image processing apparatus and stereo image processing method |
US7050625B2 (en) * | 2002-10-21 | 2006-05-23 | Hewlett-Packard Development Company, L.P. | Method and digital camera for indicating when image data has been captured for a three-dimensional target object |
JP4001162B2 (en) * | 2005-11-04 | 2007-10-31 | オムロン株式会社 | Image processing method, image processing program and storage medium therefor, and image processing apparatus |
US7606424B2 (en) * | 2006-02-13 | 2009-10-20 | 3M Innovative Properties Company | Combined forward and reverse correlation |
US8553758B2 (en) * | 2007-03-02 | 2013-10-08 | Sony Corporation | Motion parameter engine for true motion |
US20100128971A1 (en) * | 2008-11-25 | 2010-05-27 | Nec System Technologies, Ltd. | Image processing apparatus, image processing method and computer-readable recording medium |
JP5126020B2 (en) * | 2008-11-25 | 2013-01-23 | Necシステムテクノロジー株式会社 | Image processing apparatus, image processing method, and program |
WO2011014419A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene |
US8436893B2 (en) | 2009-07-31 | 2013-05-07 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
JP5812599B2 (en) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | Information processing method and apparatus |
TWI431512B (en) * | 2010-06-23 | 2014-03-21 | Ind Tech Res Inst | Method for recognizing three-dimensional control point and computer readable medium using the same thereof |
CN102331883B (en) * | 2010-07-14 | 2013-11-06 | 财团法人工业技术研究院 | Identification method of three-dimensional control endpoint and computer readable medium using same |
GB2483434A (en) * | 2010-08-31 | 2012-03-14 | Sony Corp | Detecting stereoscopic disparity by comparison with subset of pixel change points |
KR101640404B1 (en) * | 2010-09-20 | 2016-07-18 | 엘지전자 주식회사 | Mobile terminal and operation control method thereof |
US9185388B2 (en) | 2010-11-03 | 2015-11-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
WO2012092246A2 (en) | 2010-12-27 | 2012-07-05 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation |
CN102859551A (en) * | 2011-04-07 | 2013-01-02 | 松下电器产业株式会社 | Image processing apparatus and image processing method |
JP2013021215A (en) * | 2011-07-13 | 2013-01-31 | Canon Inc | Beam measuring device, drawing device, and method of manufacturing article |
JP5906165B2 (en) * | 2012-10-02 | 2016-04-20 | 日本電信電話株式会社 | Virtual viewpoint image composition device, virtual viewpoint image composition method, and virtual viewpoint image composition program |
WO2019088259A1 (en) * | 2017-11-06 | 2019-05-09 | Hoya株式会社 | Processor for electronic endoscope, and electronic endoscope system |
DE112021001440T5 (en) * | 2020-03-05 | 2023-02-09 | Fanuc Corporation | Three-dimensional measuring device that generates position information for an object surface from an image recorded by several cameras |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60217470A (en) * | 1984-04-13 | 1985-10-31 | Hitachi Ltd | Three-dimensional shape estimation method from target image |
US4825393A (en) * | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
-
1994
- 1994-07-12 JP JP16014894A patent/JP3513219B2/en not_active Expired - Fee Related
-
1995
- 1995-07-11 US US08/503,405 patent/US5734743A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH0829126A (en) | 1996-02-02 |
US5734743A (en) | 1998-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3513219B2 (en) | Corresponding point matching method and apparatus | |
CN109544456B (en) | Panoramic environment perception method based on fusion of 2D image and 3D point cloud data | |
Robert et al. | Dense depth map reconstruction: A minimization and regularization approach which preserves discontinuities | |
JP3054681B2 (en) | Image processing method | |
CN111209770A (en) | Lane line identification method and device | |
JPH11512856A (en) | Method for generating 3D image from 2D image | |
JP2003510702A (en) | How to build a 3D scene by analyzing a series of images | |
CN111340922A (en) | Positioning and mapping method and electronic equipment | |
US10055674B2 (en) | Confidence estimation for optical flow | |
WO2012100225A1 (en) | Systems and methods for generating a three-dimensional shape from stereo color images | |
WO2018053952A1 (en) | Video image depth extraction method based on scene sample library | |
EP1063614A2 (en) | Apparatus for using a plurality of facial images from different viewpoints to generate a facial image from a new viewpoint, method thereof, application apparatus and storage medium | |
CN108986150B (en) | A method and system for image optical flow estimation based on non-rigid dense matching | |
US8264526B2 (en) | Method for front matching stereo vision | |
JP2961264B1 (en) | Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program | |
CN113570725A (en) | Three-dimensional surface reconstruction method and device based on clustering, server and storage medium | |
CN113838069B (en) | Point cloud segmentation method and system based on flatness constraint | |
JP2002109518A (en) | Three-dimensional shape restoring method and system therefor | |
JP3848294B2 (en) | Corresponding point matching method and apparatus | |
Chen et al. | Parallel multiscale stereo matching using adaptive smoothing | |
CN112669360A (en) | Multi-source image registration method based on non-closed multi-dimensional contour feature sequence | |
Lee et al. | Removing foreground objects by using depth information from multi-view images | |
Banks et al. | A hybrid stereo matching algorithm incorporating the rank constraint | |
CN106600576B (en) | Human head locking method based on RGB-D camera | |
Voronin et al. | Video stabilization using space-time video completion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040109 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110116 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120116 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130116 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140116 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |