JPH10255049A - Image processing method using block matching - Google Patents
Image processing method using block matchingInfo
- Publication number
- JPH10255049A JPH10255049A JP5664897A JP5664897A JPH10255049A JP H10255049 A JPH10255049 A JP H10255049A JP 5664897 A JP5664897 A JP 5664897A JP 5664897 A JP5664897 A JP 5664897A JP H10255049 A JPH10255049 A JP H10255049A
- Authority
- JP
- Japan
- Prior art keywords
- matching
- image
- block
- image processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 23
- 230000008859 change Effects 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 26
- 238000005259 measurement Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 42
- 230000002093 peripheral effect Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 23
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000008707 rearrangement Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、複数枚の画像をブ
ロックマッチングにより比較し画像上の対応点や画像の
動きベクトルを検出する方法及び装置、及びその結果を
利用して3次元距離/形状計測や動画像圧縮/補間など
を行なう方法及び装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for comparing a plurality of images by block matching and detecting corresponding points on the images and motion vectors of the images, and a three-dimensional distance / shape using the results. The present invention relates to a method and apparatus for performing measurement, moving image compression / interpolation, and the like.
【0002】[0002]
【従来の技術】複数の少しづつ異なる画像間の対応する
点を求める問題、例えば動画像の動きベクトル検出、ス
テレオ画像の対応点探索などにブロックマッチングが使
われている。2. Description of the Related Art Block matching is used for a problem of finding corresponding points between a plurality of slightly different images, for example, detection of a motion vector of a moving image, search for a corresponding point of a stereo image, and the like.
【0003】まず画像処理の基礎となる画像データの構
造について説明する。ここで扱う画像データは2次元の
画像データであり、画素データが2次元的に整列したも
のである。画素データとは画像の上の該当する位置での
明るさを表すデータであり、白黒画像においては一つの
数値、カラー画像においては3原色を表す三つの数値が
用いられる。[0003] First, the structure of image data that forms the basis of image processing will be described. The image data handled here is two-dimensional image data in which pixel data is two-dimensionally arranged. The pixel data is data representing brightness at a corresponding position on an image, and one numerical value is used for a monochrome image, and three numerical values representing three primary colors are used for a color image.
【0004】以下、ブロックマッチングについて説明す
る。ブロックマッチングにおいては、まず基準とする画
像データと、比較の対象となる、基準とする画像データ
と内容の少し異なる画像データを入力する。例えば動画
像の場合の注目するフレームとその少し前後のフレー
ム、ステレオ画像の場合の視差の異なる左右の画像など
がこれにあたる。Hereinafter, block matching will be described. In the block matching, first, reference image data and image data to be compared which are slightly different from the reference image data are input. For example, a frame of interest and a frame immediately before and after the frame of interest in the case of a moving image, and left and right images with different parallax in the case of a stereo image correspond to this.
【0005】図1は、一対の入力画像、すなわち基準と
なる画像と比較の対象となる画像との例と、そこからの
ブロックの切り出しを説明する概念図である。基準とな
る画像1及び比較の対象となる画像2は、被写体3を含
んでいる。4は基準となる画像1から切り出されたブロ
ックを表し、5は比較の対象となる画像2上でブロック
4と対応するブロックを表す。FIG. 1 is a conceptual diagram for explaining an example of a pair of input images, that is, an image serving as a reference and an image to be compared, and cutting out a block therefrom. The reference image 1 and the comparison target image 2 include the subject 3. Reference numeral 4 denotes a block cut out from the reference image 1, and reference numeral 5 denotes a block corresponding to the block 4 on the image 2 to be compared.
【0006】図2は、入力画像からブロックが切り出さ
れる様子の一例を示す図である。まず、基準となる画像
1から一つのブロック6を切り出す。ブロック6は複数
の画素7を含んでおり、通常ブロックの形状としては数
画素から数十画素の大きさの長方形もしくは正方形(図
示の例では、8×8画素からなる正方形)が使われる。
以下では、この切り出されたブロック6を注目ブロック
と呼ぶ。ここで、ブロックの切り出しとは画像の部分的
なコピーを作ることを言う。FIG. 2 is a diagram showing an example of how blocks are cut out from an input image. First, one block 6 is cut out from the reference image 1. The block 6 includes a plurality of pixels 7, and a rectangular or square having a size of several to several tens of pixels (in the illustrated example, a square composed of 8 × 8 pixels) is used as the shape of the block.
Hereinafter, the extracted block 6 is referred to as a target block. Here, cutting out a block means making a partial copy of an image.
【0007】次に、比較の対象となる画像2の任意の箇
所から、基準となる画像1から切り出したものと同一の
形状のブロックの切り出しを行ない、基準となる画像1
から切り出したブロック6との比較を行なう。比較に
は、ブロック内の同一の位置にある画素値同士の差の自
乗をブロック内の全ての画素に関して計算し、その総和
を取り、この総和が小さいほどブロック同士が似ている
とみなす方法がよく用いられている。以下では、この総
和をマッチング値と呼ぶ。Next, a block having the same shape as that cut out from the reference image 1 is cut out from an arbitrary portion of the image 2 to be compared.
Is compared with the block 6 cut out from. For comparison, a method of calculating the square of the difference between pixel values at the same position in a block for all pixels in a block, taking the sum thereof, and assuming that the smaller the sum is, the more similar the blocks are to each other. Often used. Hereinafter, this sum is referred to as a matching value.
【0008】この任意の位置からのブロックの切り出し
とブロック同士の比較を繰り返し、一番似ている(マッ
チング値が最小となる)ブロックが切り出された位置を
記憶する。この記憶された位置が求める位置、すなわち
基準となる画像1から切り出されたブロックに対応する
比較の対象となる画像2上の位置である。すなわち、図
1でいうと、注目ブロック4に対応するブロック5の場
所が求められたことになる。また動画像の場合には、基
準となる画像から切り出したブロックの位置と、比較の
対象となる画像上での対応するブロックの位置の差が動
きベクトルであり、動きベクトルの検出がなされたこと
になる。The block extraction from an arbitrary position and the comparison between the blocks are repeated, and the position where the most similar (minimized matching value) block is extracted is stored. The stored position is a desired position, that is, a position on the image 2 to be compared corresponding to a block cut out from the reference image 1. That is, in FIG. 1, the location of the block 5 corresponding to the target block 4 has been obtained. In the case of a moving image, the difference between the position of the block cut out from the reference image and the position of the corresponding block on the image to be compared is the motion vector, and the motion vector is detected. become.
【0009】ブロックマッチングにおいては「精度」と
「正確さ」が問題になる。ここで「精度」は真の値の周
りの変動を、「正確さ」は誤対応すなわち本来全く対応
する箇所ではない箇所を誤って対応する箇所であると判
断してしまうことを反映するものとする。一般に、ブロ
ックのサイズが大きくなると「正確さ」が向上して「精
度」が低下する傾向にあり、逆にブロックのサイズが小
さくなると「正確さ」が低下して「精度」が向上する傾
向にあることが知られている。そこで「正確さ」と「精
度」を高いレベルで両立させるために様々な方法が提案
されている。In block matching, "accuracy" and "accuracy" become problems. Here, “accuracy” reflects the fluctuation around the true value, and “accuracy” reflects the mis-correspondence, that is, erroneously determining a part that is not originally a corresponding part as a corresponding part by mistake. I do. In general, as the size of a block increases, "accuracy" tends to increase and "accuracy" tends to decrease. Conversely, as the block size decreases, "accuracy" decreases and "accuracy" tends to improve. It is known that there is. Therefore, various methods have been proposed to achieve both "accuracy" and "accuracy" at a high level.
【0010】例えば、電子情報通信学会論文誌、vol.J7
4-D-II、 No.6、 pp.669-677では周辺状況からブロックの
サイズを動的に選択、「正確さ」が得にくい箇所ではブ
ロックのサイズを大きくして「正確さ」を向上させ、そ
うでない箇所ではブロックを小さくすることにより「精
度」を保っている。For example, IEICE Transactions, vol.J7
In 4-D-II, No.6, pp.669-677, the block size is dynamically selected from the surrounding conditions, and in places where "accuracy" is difficult to obtain, the block size is increased to improve "accuracy" In other places, the accuracy is maintained by reducing the size of the block.
【0011】また、信学技報、IE95-40(1995/7) 及び特
開平3−217184号公報では、注目ブロックの周辺
のブロックを切り出し、そのマッチング値を重みを付け
て注目ブロックのマッチング値に加算している。以下、
この注目ブロックの周辺から切り出したブロックを周辺
ブロックと呼ぶ。信学技報、IE95-40(1995/7) では、こ
の重みを変化させることにより疑似的にブロックサイズ
を可変するのと同様の効果を得ている。特開平3−21
7184号公報では、マッチング値に非線形の演算処理
を行なうことにより重みを変化させるのと同様の効果を
得ている。Also, in IEICE Technical Report, IE95-40 (1995/7) and JP-A-3-217184, blocks around a block of interest are cut out, the matching values are weighted, and the matching value of the block of interest is weighted. Is added to Less than,
A block cut out from the periphery of the target block is called a peripheral block. In IEICE Technical Report, IE95-40 (1995/7), the same effect as changing the block size by changing this weight is obtained. JP-A-3-21
In Japanese Patent No. 7184, an effect similar to changing the weight by performing a non-linear operation on the matching value is obtained.
【0012】図3は、入力画像から注目ブロックと周辺
ブロックが切り出される様子の一例を示す図である。図
中、1は基準となる画像、6は注目ブロック、7は一つ
の画素、8a〜8hは周辺ブロック、3は被写体を表
す。FIG. 3 is a diagram showing an example of how a block of interest and peripheral blocks are cut out from an input image. In the figure, reference numeral 1 denotes a reference image, 6 denotes a block of interest, 7 denotes one pixel, 8a to 8h denote peripheral blocks, and 3 denotes a subject.
【0013】例えば、注目するブロック6の周囲の8つ
の周辺ブロック8a〜8hを同時に切りだし、注目する
ブロック6とあわせて計9ブロックで一つの大きなブロ
ックと考え、マッチング値の計算を行なう。ただし、総
和を取る時に各ブロック6,8a〜8h毎に設定された
重みを乗じた後に加算し、マッチング値を求める。図4
は、重み付け係数の例を示している。For example, eight peripheral blocks 8a to 8h around the block of interest 6 are simultaneously cut out, and a total of nine blocks including the block of interest 6 are considered as one large block, and a matching value is calculated. However, when taking the sum, the weights set for each of the blocks 6, 8a to 8h are multiplied and then added to obtain a matching value. FIG.
Shows an example of a weighting coefficient.
【0014】周辺ブロック8a〜8hの重みを注目する
ブロック6と同じにして計算するならば、ブロックのサ
イズが3倍(面積で9倍)になったのと同じことにな
る。周辺ブロック8a〜8hの重みが全て0であれば注
目ブロック6単体で計算した場合と同じ結果となり、中
間の値であれば当然中間的な結果になる。すなわち、こ
の重みを変化させることにより疑似的にブロックのサイ
ズを可変するのと同様の効果を生み出している。この重
みを動的に決定することにより、電子情報通信学会論文
誌、vol.J74-D-II、 No.6、 pp.669-677と同様の効果を得
ている。If the weights of the peripheral blocks 8a to 8h are calculated in the same manner as that of the block 6 of interest, it is the same as when the size of the block is tripled (9 times in area). If the weights of the peripheral blocks 8a to 8h are all 0, the result is the same as when the calculation is performed for the target block 6 alone, and if the value is an intermediate value, the result is naturally an intermediate result. That is, by changing the weight, an effect similar to that of pseudo-changing the size of a block is produced. By dynamically determining the weight, the same effect as in IEICE Transactions, vol.J74-D-II, No.6, pp.669-677 is obtained.
【0015】以下、重みを動的に決定する方法について
説明する。信学技報、IE95-40(1995/7) では、注目ブロ
ックと近傍のブロックのマッチングの状況が似ている場
合には画像中の動きが似通った領域であるとして重みを
大きくし、似ていない場合には逆に重みを小さくしてい
る。ここでマッチングの状況が似ているかどうかの計算
にはいくつかの方法が考えられる。Hereinafter, a method for dynamically determining the weight will be described. According to IEICE Technical Report IE95-40 (1995/7), when the matching situation between the block of interest and the neighboring block is similar, it is assumed that the motion in the image is a similar area, and the weight is increased. Otherwise, the weight is reduced. Here, there are several methods for calculating whether or not the matching situations are similar.
【0016】以下は、信学技報、IE95-40(1995/7) で行
なわれている方法の説明である。まず、注目ブロック及
び周辺ブロックで、一度単一ブロックのみでマッチング
値の計算を行なう。この時、マッチング値が最小になる
ものから上位N個のマッチング値と、その時の比較の対
象となる画像から切り出したブロックの位置を記憶して
おく。注目ブロックと任意の一つの周辺ブロックの間
で、上記N個のうち共通する比較の対象となる画像から
のブロックの切り出し位置が何個あるか計算し、その個
数を注目ブロックとその周辺ブロック間のマッチング類
似度とし、重みに使用する。これを全ての周辺ブロック
に対し行ない、それぞれ重みを決定する。The following is an explanation of the method used in IEICE Technical Report, IE95-40 (1995/7). First, a matching value is calculated only once for a target block and a peripheral block using only a single block. At this time, the top N matching values from the smallest matching value and the position of the block cut out from the image to be compared at that time are stored. Calculate the number of the cutout positions of the blocks from the image to be compared which are common among the N blocks between the target block and any one of the peripheral blocks, and calculate the number between the target block and the peripheral block. , And used for weighting. This is performed for all the peripheral blocks, and the weight is determined for each.
【0017】[0017]
【発明が解決しようとする課題】しかしながら、信学技
報、IE95-40(1995/7) 及び特開平3−217184号公
報の方法では、重みの決定に際しマッチング類似度にの
み注目しているため、テクスチャ等に乏しく比較の対象
となる画像からのブロックの切り出し位置の変化に対す
るマッチング値の変化が小さいブロックと物体のエッジ
などのマッチングしやすくマッチング値の変化が大きい
箇所とが隣接している場合、性質の違いからマッチング
の類似度も低いため重みも小さくなるものの、必要十分
に小さくなることができないことがある。However, the methods of IEICE Technical Report, IE95-40 (1995/7) and JP-A-3-217184 pay attention only to the matching similarity when determining the weight. , A block with a small change in the matching value with respect to a change in the cutout position of the block from the image to be compared, which is poor in texture, etc., is adjacent to a location where the matching value is easily changed, such as the edge of an object, etc. Although the similarity of the matching is low due to the difference in the properties, the weight is small, but the weight may not be small enough.
【0018】ここで、重みが十分に小さくない場合で、
注目ブロックが比較の対象となる画像からのブロックの
切り出し位置の変化に対するマッチング値の変化が小さ
いブロックである場合、比較の対象となる画像からのブ
ロックの切り出し位置の変化に対するマッチング値の変
化の大きい周辺ブロックのマッチング値を加算すると、
注目しているブロックの変化の小さいマッチング値より
も周辺ブロックの変化の大きいマッチング値が結果に対
し大きく作用してしまい、注目ブロックの対応している
比較の対象となる画像上のブロックの位置でのマッチン
グ値が最小にならず、その結果、誤対応が生じてしまう
現象が発生していた。Here, when the weight is not small enough,
If the target block is a block having a small change in the matching value with respect to the change in the cutout position of the block from the image to be compared, the change in the matching value is large with respect to the change in the cutout position of the block from the image to be compared. By adding the matching values of the surrounding blocks,
A matching value having a large change in the surrounding block has a greater effect on the result than a matching value having a small change in the block of interest, and the matching value of the block of interest corresponding to the block on the image to be compared , The matching value does not become the minimum, and as a result, a phenomenon that an erroneous correspondence occurs occurs.
【0019】本発明は、このような従来技術の問題点に
鑑みてなされたもので、ブロックマッチングの「正確
さ」を向上させることを目的とする。また、本発明は、
ブロックマッチングを用いた画像処理によって得られる
画像の品質を向上すること、及びブロックマッチングを
用いた画像処理に基づく計測の精度を向上することを目
的とする。The present invention has been made in view of such a problem of the related art, and has as its object to improve the “accuracy” of block matching. Also, the present invention
It is an object of the present invention to improve the quality of an image obtained by image processing using block matching and to improve the accuracy of measurement based on image processing using block matching.
【0020】[0020]
【課題を解決するための手段】上記の問題は、周辺ブロ
ックにおいて比較の対象となる画像からのブロックの切
り出し位置の変化に対するマッチング値の変化の度合が
大き過ぎることに対応できないことから発生している。
以下では、このマッチング値の変化の度合をマッチング
強度と呼ぶ。The above problem arises from the fact that it is not possible to cope with an excessively large degree of change in the matching value with respect to a change in the cutout position of a block from an image to be compared in a peripheral block. I have.
Hereinafter, the degree of the change in the matching value is referred to as the matching strength.
【0021】本発明では、マッチング強度を重みの算出
時に考慮し、周辺ブロックのマッチング強度が強い場合
には、最終結果に必要以上に大きい影響を与えることが
ないよう重みを小さく、逆に周辺ブロックのマッチング
強度が弱い場合にはマッチング値の計算に必要十分に作
用できるよう重みを大きくすることにより上記問題を軽
減する。In the present invention, the matching strength is taken into account when calculating the weight, and when the matching strength of the peripheral block is strong, the weight is reduced so as not to have an unnecessarily large effect on the final result. If the matching strength of is low, the above problem is reduced by increasing the weight so that it can be used sufficiently and sufficiently to calculate the matching value.
【0022】ここで、マッチング強度を計算する最も簡
単な計算方法は、マッチング値全体の平均と最小値の差
をマッチング強度とする計算方法である。次に考えられ
るのは、マッチング値のうち、対応箇所の決定に大きく
作用すると考えられるマッチング値の上位M個の値の平
均と最小値の差をマッチング強度とする計算方法であ
る。他に、マッチング値の最小値周辺でのマッチング値
の変化量そのものをマッチング強度とする計算方法も考
えられる。この場合、例えばマッチング値の最小値周辺
で関数近似を行ない、そのパラメータを使用する。Here, the simplest calculation method for calculating the matching strength is a calculation method in which the difference between the average of the entire matching values and the minimum value is used as the matching strength. The next conceivable method is a calculation method in which the difference between the average and the minimum value of the top M values of the matching values that are considered to have a large effect on the determination of the corresponding portion among the matching values is used as the matching strength. In addition, a calculation method in which the amount of change in the matching value around the minimum value of the matching value itself is used as the matching strength is also conceivable. In this case, for example, function approximation is performed around the minimum value of the matching value, and the parameter is used.
【0023】すなわち、本発明は、互いに異なる2枚の
画像からブロックマッチング法により動きベクトル及び
/又は対応点検出を行なう画像処理方法において、注目
ブロックと近傍のブロックのマッチングの類似度及びマ
ッチング強度を考慮して決定した重みを用いて注目ブロ
ックの近傍のブロックのマッチング結果を重み付き加算
することにより最終的なマッチング結果を算出すること
を特徴とする。That is, according to the present invention, in an image processing method for detecting a motion vector and / or a corresponding point from two different images by a block matching method, a similarity and a matching strength of matching between a target block and neighboring blocks are determined. The final matching result is calculated by performing weighted addition of the matching results of the blocks near the block of interest using the weights determined in consideration.
【0024】マッチング強度を算出する手段としては、
マッチングの全体平均、マッチングの上位の平均、ある
いはマッチング周辺の変化量を使うことができる。ま
た、本発明は、前記画像処理方法を使用してステレオ画
像の対応点探索を行ない、その結果を演算処理すること
により3次元形状計測及び/又は距離計測を行うことを
特徴とする。Means for calculating the matching strength include:
The overall average of the matching, the higher average of the matching, or the amount of change around the matching can be used. Further, the present invention is characterized in that a corresponding point search of a stereo image is performed by using the image processing method, and a three-dimensional shape measurement and / or a distance measurement is performed by arithmetically processing the result.
【0025】また、本発明は、前記画像処理方法を使用
してステレオ画像の対応点探索を行ない、その結果を演
算処理し、ステレオ画像から画像補間、画像変形等の手
段を用いステレオ画像の中間の視点からの画像となる疑
似画像を一枚あるいは複数枚生成することを特徴とす
る。Further, according to the present invention, a corresponding point search of a stereo image is performed by using the above-mentioned image processing method, the result is subjected to arithmetic processing, and an intermediate image of the stereo image is obtained from the stereo image by using means such as image interpolation and image transformation. One or a plurality of pseudo images, which are images from the viewpoint of, are generated.
【0026】さらに、本発明は、前記画像処理方法を使
用して動画像の動きベクトル検出を行ない動画像を圧縮
することを特徴とする。また、本発明は、前記画像処理
方法を使用して動画像の動きベクトル検出を行ない、動
画像中の任意の二枚の画像から画像補間、画像変形等の
手段を用い、動画中の二枚の画像の中間画像となる疑似
画像を一枚あるいは複数枚生成することを特徴とする。Further, the present invention is characterized in that a motion vector of a moving image is detected by using the image processing method and the moving image is compressed. Further, the present invention performs motion vector detection of a moving image using the image processing method, and uses means such as image interpolation and image deformation from any two images in the moving image to obtain two images in a moving image. The method is characterized in that one or a plurality of pseudo images serving as intermediate images of the above images are generated.
【0027】このように、本発明では、2枚の画像を入
力し、片方を基準側画像、もう片方を比較対象側画像と
する。基準側画像からブロックを切り出す。これを注目
ブロックと呼ぶ。さらに注目ブロックの周辺からブロッ
クを切り出す。これを周辺ブロックと呼ぶ。比較対象側
画像からも同様にブロックの切り出しを行ない、単一の
ブロック同士でマッチング値の計算を行なう。ここでマ
ッチング値とは、基準側画像から切り出されたブロック
と比較対象側画像から切り出されたブロックがどの程度
似ているかを表す値である。As described above, in the present invention, two images are input, one of which is set as the reference side image, and the other is set as the comparison side image. Cut out a block from the reference side image. This is called a target block. Further, a block is cut out from the vicinity of the block of interest. This is called a peripheral block. Blocks are similarly cut out from the image to be compared, and the matching value is calculated between single blocks. Here, the matching value is a value indicating how similar a block cut out from the reference side image is to a block cut out from the comparison side image.
【0028】次に、計算されたマッチング値から注目ブ
ロックと周辺ブロックのマッチング類似度を計算する。
マッチング類似度は注目ブロックと周辺ブロックのマッ
チングの傾向がどの程度似通っているかを表す。また、
計算されたマッチング値から注目ブロック及び周辺ブロ
ックのマッチング強度を計算する。マッチング強度は各
ブロックのマッチングの強さ、すなわちマッチング値の
変化の度合を表す。Next, the matching similarity between the target block and the surrounding blocks is calculated from the calculated matching values.
The matching similarity indicates how similar the matching tendency of the target block and the surrounding block is. Also,
The matching strength of the target block and the surrounding blocks is calculated from the calculated matching value. The matching strength indicates the strength of matching of each block, that is, the degree of change in the matching value.
【0029】計算されたマッチング類似度及びマッチン
グ強度から各周辺ブロックに関し重みを決定する。この
重みを乗じて再度マッチング値の計算を行ない、このマ
ッチング値が最小になる位置を求める位置とする。この
重みの決定に関しマッチング強度及びマッチング類似度
を考慮することにより、従来方式より高い「正確さ」を
得る。A weight is determined for each peripheral block from the calculated matching similarity and matching strength. The weight is multiplied and the matching value is calculated again, and the position where the matching value is minimized is determined as the position to be obtained. By considering the matching strength and the matching similarity in determining the weight, higher “accuracy” than the conventional method is obtained.
【0030】[0030]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。 〔実施の形態1〕図5は、本発明の一実施の形態による
画像処理装置のシステム構成図である。この画像処理装
置は、ステレオ画像により三次元形状/距離計測を行う
もので、2台のカメラで対象物を撮影しステレオ画像を
入力、計算機本体で処理することにより三次元形状/距
離データを得る。得られたデータは表示装置に表示され
ると同時に、外部記憶装置に記録される。Embodiments of the present invention will be described below with reference to the drawings. [Embodiment 1] FIG. 5 is a system configuration diagram of an image processing apparatus according to an embodiment of the present invention. This image processing apparatus performs three-dimensional shape / distance measurement using a stereo image, and obtains three-dimensional shape / distance data by capturing an object with two cameras, inputting the stereo image, and processing the image using a computer main body. . The obtained data is displayed on the display device and simultaneously recorded in the external storage device.
【0031】画像処理装置本体10は、CPU(中央演
算装置)11、メモリ12、マッチング値演算部13、
マッチング類似度演算部14、マッチング強度演算部1
5、補助記憶装置16、画像入力インターフェース部1
7、外部記憶装置インターフェース部18、ユーザーイ
ンターフェース部19を備える。計測対象を撮影するカ
メラ21,22は画像入力インターフェース部17に、
外部記憶装置23は外部記憶装置インターフェイス部1
8に、表示装置24、キーボード25、マウス26はユ
ーザーインターフェイス部19にそれぞれ接続されてい
る。The image processing apparatus main body 10 includes a CPU (central processing unit) 11, a memory 12, a matching value calculation unit 13,
Matching similarity calculator 14, matching strength calculator 1
5, auxiliary storage device 16, image input interface unit 1
7, an external storage device interface unit 18 and a user interface unit 19 are provided. The cameras 21 and 22 for photographing the measurement target are provided to the image input interface unit 17,
The external storage device 23 is an external storage device interface unit 1
8, a display device 24, a keyboard 25, and a mouse 26 are connected to the user interface unit 19, respectively.
【0032】図6は、マッチング値演算部13の詳細図
である。マッチング値演算部13は、基準側のブロック
及び比較対象側のブロックを記憶するブロック1記憶部
31及びブロック2記憶部32、2つのブロックの同じ
位置にある画素同士の差を演算する減算回路33、減算
された値の自乗を計算しそれをブロック内の全画素に関
して総和を取る積和回路34、及び積和回路34の計算
値をマッチング値と値手記憶するマッチング値記憶部3
5からなる。FIG. 6 is a detailed diagram of the matching value calculator 13. The matching value calculation unit 13 includes a block 1 storage unit 31 and a block 2 storage unit 32 that store a reference block and a comparison target block, and a subtraction circuit 33 that calculates a difference between pixels at the same position in the two blocks. , A sum-of-products circuit 34 which calculates the square of the subtracted value and sums the sum of all the pixels in the block, and a matching value storage unit 3 which stores the calculated value of the sum-of-products circuit 34 as a matching value and a value
Consists of five.
【0033】図7は、マッチング類似度演算部14の詳
細図である。マッチング類似度演算部14は、注目ブロ
ックマッチング値記憶部41、周辺ブロックマッチング
値記憶部42、マッチング値の小さい順に並べる並べ替
え回路43,44、注目ブロックと周辺ブロックにおい
て両者に共通するものを検出する共通部分検出回路4
5、共通部分の個数を計数するカウンター46、カウン
ター46の計数値を正規化するための除算回路47、及
び除算回路47の出力をマッチングの類似度として記憶
するマッチング類似度記憶部48からなる。FIG. 7 is a detailed diagram of the matching similarity calculating section 14. The matching similarity calculation unit 14 detects the block-of-interest matching value storage unit 41, the peripheral block matching value storage unit 42, the rearranging circuits 43 and 44 that arrange the matching values in ascending order, and detects a common block between the target block and the peripheral block. Common part detection circuit 4
5, a counter 46 for counting the number of common parts, a division circuit 47 for normalizing the count value of the counter 46, and a matching similarity storage unit 48 for storing the output of the division circuit 47 as the matching similarity.
【0034】図8は、マッチング強度演算部15の詳細
図である。マッチング強度演算部15は、マッチング値
記憶部51、その平均を計算するための積和回路52及
び除算回路53、マッチング値の最小値を算出し記憶す
る最小値記憶部54、除算回路53の出力と最小値記憶
部54に記憶された最小値との差を計算する減算回路5
5、その差をマッチング強度として記憶するマッチング
強度記憶部56からなる。FIG. 8 is a detailed diagram of the matching strength calculator 15. The matching strength calculation unit 15 includes a matching value storage unit 51, a product-sum circuit 52 and a division circuit 53 for calculating the average, a minimum value storage unit 54 for calculating and storing the minimum value of the matching value, and an output of the division circuit 53. Circuit 5 for calculating the difference between the minimum value and the minimum value stored in minimum value storage unit 54
5, a matching strength storage unit 56 for storing the difference as a matching strength.
【0035】この実施の形態では左右二つのカメラ2
1,22を使用しているが、カメラの位置関係や台数は
ここで示した例になんら限定されるものではない。例え
ば、画像電子学会誌、第20巻、第4号、380〜38
6頁に記載のように、カメラを縦に並べて設置してもよ
い。また、カメラや撮影対象は固定されて動かないとは
限らないし、画像入力手段としてカメラ以外のものを用
いても構わない。In this embodiment, two left and right cameras 2
Although 1 and 22 are used, the positional relationship and the number of cameras are not limited to the examples shown here. For example, Journal of the Institute of Image Electronics Engineers of Japan, Vol. 20, No. 4, 380-38
As described on page 6, cameras may be arranged vertically. Further, the camera and the photographing target are not necessarily fixed and do not move, and other than the camera may be used as the image input means.
【0036】次に、図9のフローチャートを参照して画
像処理の方法について説明する。まず、図9のステップ
11において、左右のカメラ21,22よりステレオ画
像データを入力し、画像処理装置10のメモリ12に記
憶する。ここで2台のカメラ21,22で撮影された2
つの画像データのうち片方を基準側、もう一方を比較対
象側とする。Next, an image processing method will be described with reference to the flowchart of FIG. First, in step 11 of FIG. 9, stereo image data is input from the left and right cameras 21 and 22 and stored in the memory 12 of the image processing device 10. Here, two images taken by the two cameras 21 and 22
One of the image data is set as a reference side, and the other is set as a comparison target side.
【0037】次に、ステップ12において、メモリ12
上に記憶された基準側の画像の任意の位置から8×8画
素のブロック6(図3)を読み出し、メモリ12の別の
位置にある計算用のバッファ領域に記憶(コピー)す
る。以下、この操作を切り出しと呼ぶ。また、ここで切
り出されたブロックを注目ブロックと呼ぶ。Next, in step 12, the memory 12
An 8 × 8 pixel block 6 (FIG. 3) is read from an arbitrary position of the reference side image stored above and stored (copied) in a calculation buffer area at another position in the memory 12. Hereinafter, this operation is referred to as clipping. The block cut out here is called a block of interest.
【0038】次に、ステップ13において、注目ブロッ
ク6の周辺から、切り出されたブロック全体の形状が3
×3ブロックとなるように8×8画素のブロック8a〜
8hを8つ(図3)切り出す。この8つのブロック8a
〜8hを周辺ブロックと呼ぶ。Next, in step 13, from the periphery of the block of interest 6, the entire shape of the cut-out block becomes 3
8 × 8 pixel blocks 8a to 8 ×
8h (FIG. 3) is cut out. These eight blocks 8a
88h are called peripheral blocks.
【0039】ここでは、ブロックの大きさを8×8画素
とし、図3に示したような周辺ブロックの切り出し方に
よって説明するが、ブロックのサイズや注目ブロックと
周辺ブロックの位置関係、周辺ブロックの数などはここ
に示した例に限られず、種々変更可能である。Here, the size of the block is set to 8 × 8 pixels, and the description will be given by the method of cutting out the peripheral block as shown in FIG. 3, but the size of the block, the positional relationship between the target block and the peripheral block, and the peripheral block The number and the like are not limited to the example shown here, and can be variously changed.
【0040】次に、ステップ14において、比較対象側
の画像データから基準側から切り出したものと同一形状
のブロック、すなわち8×8画素のブロックを3×3ブ
ロック切り出す。Next, in step 14, 3 × 3 blocks are cut out of blocks having the same shape as those cut out from the reference side from the image data on the comparison side, that is, blocks of 8 × 8 pixels.
【0041】続いて、ステップ15において、基準側と
比較対象側で対応するブロック同士のマッチング値を図
6に詳細を示したマッチング値演算部13にて計算す
る。すなわち、切り出されたブロックの情報をマッチン
グ値演算部13の内部のブロック1記憶部31及びブロ
ック2記憶部32に転送し、減算回路33及び積和回路
34により、基準側のあるブロックのある画素に対し、
比較対象側の対応するブロックの同じ位置にある画素と
の差の自乗を計算し、それをブロック内の全画素に関し
て総和を取る。得られた総和はマッチング値記憶部35
に蓄えられた後、画像処理装置10のメモリ12(図
5)に転送される。これを全てのブロックについて行な
い、得られた9個のマッチング値を比較対象側からのブ
ロックの切り出し位置と共にメモリ12に記憶する。Subsequently, in step 15, the matching value between the corresponding blocks on the reference side and the comparison side is calculated by the matching value calculation unit 13 shown in detail in FIG. That is, the information of the cut-out block is transferred to the block 1 storage unit 31 and the block 2 storage unit 32 inside the matching value calculation unit 13, and the subtraction circuit 33 and the product-sum circuit 34 use a certain pixel of a certain block on the reference side. Against
The square of the difference from the pixel at the same position in the corresponding block on the comparison target side is calculated, and the sum is calculated for all the pixels in the block. The obtained sum is stored in the matching value storage unit 35.
After that, the data is transferred to the memory 12 (FIG. 5) of the image processing apparatus 10. This is performed for all the blocks, and the obtained nine matching values are stored in the memory 12 together with the cutout positions of the blocks from the comparison target side.
【0042】ステップ14からステップ15を比較対象
側のある範囲に対し繰り返し実行する。この範囲は通
常、基準側の切り出し位置と同一の位置を中心としてあ
らかじめ設定した一定の距離以内が使用される。ステッ
プ16において、前記範囲内での比較対象側画像の切り
出しと、マッチング値の計算が終了したと判定されると
ステップ17に進む。Steps 14 to 15 are repeatedly executed for a certain range on the comparison target side. Usually, this range is used within a predetermined distance set in advance around the same position as the cut-out position on the reference side. If it is determined in step 16 that the comparison target image has been cut out within the range and the calculation of the matching value has been completed, the process proceeds to step 17.
【0043】ステップ17では、ステップ14からステ
ップ16で計算された切り出し位置とマッチング値か
ら、全ての基準側画像から切り出された周辺ブロック8
a〜8hに関し、注目ブロック7とのマッチングの類似
度を計算する。In step 17, the peripheral blocks 8 extracted from all the reference side images are extracted from the extraction positions and the matching values calculated in steps 14 to 16.
With respect to a to 8h, the similarity of matching with the block of interest 7 is calculated.
【0044】図10に、ステップ17の詳細を示す。ま
ず、記憶されたデータを、図7に詳細を示すマッチング
類似度演算部14内部の注目ブロックマッチング値記憶
部41及び周辺ブロックマッチング値記憶部42に転送
する。次に、ステップ31において、並べ替え回路4
3,44により、各ブロック毎にマッチング値の小さい
順番に並べかえる。次に、ステップ32において、予め
設定した定数Nにより、マッチング値の小さいものから
上位N個のマッチング値とその切り出し位置を取り出
す。ステップ33では、注目ブロック6と重みを決定し
たい周辺ブロック8a〜8hにおいて、それぞれから取
り出した上位N個の切り出し位置の中で、両者に共通す
るものが何個あるかを共通部分検出回路45及びカウン
ター46で計算する。最小は0個、最大は全部共通する
場合なのでN個となる。ステップ34では、この個数を
除算回路47によりNで割って正規化し、マッチングの
類似度とする。このマッチング類似度はマッチング類似
度記憶部48に蓄えられた後、画像処理装置10のメモ
リ12に転送され記憶される。FIG. 10 shows the details of step 17. First, the stored data is transferred to the target block matching value storage unit 41 and the peripheral block matching value storage unit 42 inside the matching similarity calculation unit 14 shown in detail in FIG. Next, in step 31, the rearranging circuit 4
According to 3, 44, the blocks are rearranged in ascending order of the matching value for each block. Next, in step 32, the upper N matching values and their cut-out positions are extracted from the smaller matching values using a preset constant N. In step 33, the common part detection circuit 45 and the common block detection circuit 45 determine how many of the upper N cutout positions extracted from each of the target block 6 and the peripheral blocks 8a to 8h whose weights are to be determined are common. Calculate at the counter 46. The minimum is 0 and the maximum is N because all are common. In step 34, this number is divided by N by the dividing circuit 47 and normalized to obtain a similarity of matching. This matching similarity is stored in the matching similarity storage unit 48 and then transferred to the memory 12 of the image processing apparatus 10 and stored.
【0045】図9のステップ17の操作を全ての周辺ブ
ロック8a〜8hに対して行ない、全ての周辺ブロック
の注目ブロックとのマッチング類似度を計算し、それが
終了するとステップ18からステップ19に進む。The operation of step 17 in FIG. 9 is performed on all the peripheral blocks 8a to 8h, and the matching similarity of all the peripheral blocks with the target block is calculated. .
【0046】ステップ19では、ステップ14からステ
ップ16で計算された切り出し位置とマッチング値か
ら、注目ブロック6と周辺ブロック8a〜8hのマッチ
ング強度を、図8に詳細を示すマッチング強度演算部1
5にて計算する。図11は、ステップ19の詳細を示す
図である。In step 19, the matching strength between the block of interest 6 and the peripheral blocks 8a to 8h is determined from the cutout positions and the matching values calculated in steps 14 to 16, and the matching strength calculation unit 1 shown in FIG.
Calculate at 5. FIG. 11 is a diagram showing details of step 19.
【0047】ステップ19では、まずマッチング強度を
計算したいブロックのマッチング値をマッチング値記憶
部51に転送する。次に、図11のステップ41におい
て、その平均を積和回路52及び除算回路53により計
算する。またマッチング値の最小値を算出し、最小値記
憶部54に記憶する。次に、ステップ42で、減算回路
55によりこの平均とマッチング値の最小値との差を計
算する。この差をマッチング強度とし、マッチング強度
記憶部56に記憶し、画像処理装置10のメモリ12に
転送し記憶する。In step 19, first, the matching value of the block whose matching strength is to be calculated is transferred to the matching value storage unit 51. Next, in step 41 of FIG. 11, the average is calculated by the product-sum circuit 52 and the division circuit 53. Further, the minimum value of the matching value is calculated and stored in the minimum value storage unit 54. Next, in step 42, the difference between the average and the minimum value of the matching values is calculated by the subtraction circuit 55. This difference is used as the matching strength, stored in the matching strength storage unit 56, and transferred to and stored in the memory 12 of the image processing apparatus 10.
【0048】ステップ19の操作を注目ブロック6及び
全ての周辺ブロック8a〜8hに対して行ない、マッチ
ング強度を計算する。それが終了すると、ステップ20
からステップ21に進む。The operation of step 19 is performed on the block of interest 6 and all the peripheral blocks 8a to 8h to calculate the matching strength. When that is done, step 20
To step 21.
【0049】ステップ21では、ステップ17からステ
ップ18で計算されたマッチング類似度及びステップ1
9からステップ20で計算されたマッチング強度から、
図4に示すように重みを計算する。ここでの例では、重
みはマッチング類似度とマッチング強度の逆数との積を
使用する。ただし、注目ブロック6に関してはマッチン
グ類似度が存在しないので、マッチング類似度は任意の
定数で代用する。図の例では、この定数に2を使用して
いる。この定数をマッチング類似度の最大値1を越える
値としたのは、注目ブロックの比重を大きくすることに
より精度の向上を得るためである。なお、重みの計算
は、マッチング類似度とマッチング強度の逆数との積以
外にも両者に対して正の相関を有する関数を目的に合わ
せて選択して使用することができる。In step 21, the matching similarity calculated in steps 17 to 18 and step 1
From the matching strength calculated in step 20 from step 9,
The weight is calculated as shown in FIG. In this example, the weight uses the product of the matching similarity and the reciprocal of the matching strength. However, since there is no matching similarity for the block of interest 6, the matching similarity is substituted by an arbitrary constant. In the example of the figure, 2 is used for this constant. The reason why this constant is set to a value exceeding the maximum value 1 of the matching similarity is to improve the accuracy by increasing the specific gravity of the block of interest. The weight can be calculated by using a function having a positive correlation with both the product of the matching similarity and the reciprocal of the matching strength in accordance with the purpose.
【0050】次に、ステップ22において、ステップ2
1で計算された重みを用い、基準側画素から切り出され
たブロック全体でのマッチング値の計算を行なう。本例
では8×8画素のブロックが3×3ブロックであるの
で、重みを乗ずる以外には24×24画素のブロックで
のマッチング値の計算とほぼ同様の計算となる。ただ
し、既に各ブロック毎にマッチング値と位置を計算し、
メモリ12に記憶してあるので、ある位置のマッチング
値にそのブロックの重みを乗じ、注目ブロック6及び全
ての周辺ブロック8a〜8hに関してその総和を取るだ
けでマッチング値の計算ができる。このようにして計算
されたマッチング値と位置を再びメモリ12に記憶す
る。Next, in step 22, step 2
Using the weight calculated in step 1, a matching value is calculated for the entire block cut out from the reference side pixel. In this example, since the block of 8 × 8 pixels is a 3 × 3 block, the calculation is substantially the same as the calculation of the matching value in the block of 24 × 24 pixels except for multiplying the weight. However, we have already calculated the matching value and position for each block,
Since it is stored in the memory 12, the matching value can be calculated only by multiplying the matching value at a certain position by the weight of the block and calculating the sum of the target block 6 and all the peripheral blocks 8a to 8h. The matching value and the position thus calculated are stored in the memory 12 again.
【0051】ステップ22の操作を、ステップ16と同
じ範囲に対して繰り返し実行する。この操作が終了する
と、ステップ23からステップ24に進む。ステップ2
4では、ステップ22からステップ23で計算されたマ
ッチング値のうち最小のものを計算する。この最小のも
のの位置が、注目ブロックに対する比較対象側の画像中
の対応するブロックの位置、例えば図1中のブロック4
に対応するブロック5の位置である。The operation in step 22 is repeatedly executed for the same range as in step 16. When this operation ends, the process proceeds from the step 23 to a step 24. Step 2
In step 4, the smallest one of the matching values calculated in steps 22 to 23 is calculated. The position of the smallest one is the position of the corresponding block in the image on the comparison target side with respect to the target block, for example, block 4 in FIG.
Is the position of the block 5 corresponding to.
【0052】ステップ12からステップ24までの操作
を基準側画像のある範囲に関して繰り返し実行する。こ
の範囲には通常基準側画像全体が用いられる。これによ
り基準側画像全体に関し比較対象側画像の対応する箇所
が求められる。この操作が終了するとステップ25から
ステップ26に進む。The operations from step 12 to step 24 are repeatedly executed for a certain range of the reference side image. Usually, the entire reference side image is used for this range. As a result, a portion corresponding to the comparison target side image is obtained for the entire reference side image. When this operation ends, the process advances from the step 25 to the step 26.
【0053】ステップ26では、基準側画像全体に関し
比較対象側画像の対応する箇所が求められたなら、カメ
ラの位置情報等と合わせて基準画像上の任意の箇所の3
次元的位置を三角測量により求めることができる。この
計算方法は、一般に広く知られたもの既知のものを用い
ることができる。In step 26, if the corresponding portion of the image to be compared has been obtained for the entire image on the reference side, the position of the arbitrary portion on the reference image is determined along with the position information of the camera.
The dimensional position can be determined by triangulation. As this calculation method, a widely known one can be used.
【0054】この実施の形態によると、ブロックマッチ
ングの「正確さ」を向上し、従来の方法に比較して特に
物体と動きが異なりテクスチャに乏しい背景との境界領
域付近等での誤対応を減少することができる。また、3
次元形状/距離計測の正確さを向上することができる。According to this embodiment, the "accuracy" of the block matching is improved, and erroneous correspondence is reduced especially in the vicinity of a boundary region between the object and the background where the motion is different and the texture is poor compared to the conventional method. can do. Also, 3
The accuracy of dimensional shape / distance measurement can be improved.
【0055】〔実施の形態2〕画像処理装置10のマッ
チング強度演算部15を図12に示す構成とし、マッチ
ング強度を図13に示す処理によって計算した。それ以
外は、実施の形態1と同様であるので、ここでは図9の
ステップ19のマッチング強度の計算についてのみ説明
する。[Second Embodiment] The matching strength calculation section 15 of the image processing apparatus 10 is configured as shown in FIG. 12, and the matching strength is calculated by the processing shown in FIG. The rest is the same as in the first embodiment, and therefore only the calculation of the matching strength in step 19 in FIG. 9 will be described here.
【0056】マッチング強度演算部15は、図12に示
すように、マッチング値記憶部61、記憶したマッチン
グ値をその大小によって並べ替える並べ替え回路62、
並び替えられたマッチング値の平均を計算するための積
和回路63及び除算回路64、並び替えられたマッチン
グ値の最小値を算出し記憶する最小値記憶部65、除算
回路64の出力と最小値記憶部65に記憶された最小値
との差を計算する減算回路66、その差をマッチング強
度として記憶するマッチング強度記憶部67からなる。As shown in FIG. 12, the matching strength calculation section 15 includes a matching value storage section 61, a rearrangement circuit 62 for rearranging the stored matching values according to their magnitudes,
A product-sum circuit 63 and a division circuit 64 for calculating the average of the sorted matching values, a minimum value storage unit 65 for calculating and storing the minimum value of the sorted matching values, an output and a minimum value of the division circuit 64 The subtraction circuit 66 calculates a difference from the minimum value stored in the storage unit 65, and a matching strength storage unit 67 stores the difference as a matching strength.
【0057】次に、マッチング強度の演算について説明
する。図9のステップ19で、まずマッチング強度を計
算したいブロックのマッチング値をマッチング値記憶部
61に転送する。次に、図13のステップ51におい
て、マッチング強度に計算したいブロックのマッチング
値を並べ替え回路62により小さい順に並べかえる。次
に、ステップ52において、小さいものから上位M個の
マッチング強度の平均を積和回路63及び除算回路64
により計算する。ここでMはあらかじめ与える任意の定
数である。またマッチング値の最小値を算出し、最小値
記憶部65に記憶する。次に、ステップ53において、
この平均とマッチング値の最小値との差を減算回路66
により計算する。この差をマッチング強度とし、マッチ
ング強度記憶部67に記憶し、画像処理装置10のメモ
リ12に転送し記憶する。この実施の形態によると、簡
易な回路の追加でより高いブロックマッチングの「正確
さ」を実現することができる。Next, the calculation of the matching strength will be described. In step 19 in FIG. 9, first, the matching value of the block whose matching strength is to be calculated is transferred to the matching value storage unit 61. Next, in step 51 of FIG. 13, the matching values of the blocks to be calculated as the matching strength are rearranged in the rearrangement circuit 62 in ascending order. Next, in step 52, the average of the M matching strengths from the smallest one is calculated by the product-sum circuit 63 and the division circuit 64.
Is calculated by Here, M is an arbitrary constant given in advance. Further, the minimum value of the matching value is calculated and stored in the minimum value storage unit 65. Next, in step 53,
The difference between the average and the minimum value of the matching value is subtracted by a subtraction circuit 66.
Is calculated by This difference is used as the matching strength, stored in the matching strength storage unit 67, and transferred to and stored in the memory 12 of the image processing apparatus 10. According to this embodiment, higher “accuracy” of block matching can be realized by adding a simple circuit.
【0058】〔実施の形態3〕画像処理装置10のマッ
チング強度演算部15を図14に示す構成とし、マッチ
ング強度を図15に示す処理によって計算した。それ以
外は、実施の形態1と同様であるので、ここでは図9の
ステップ19のマッチング強度の計算についてのみ説明
する。[Third Embodiment] The matching strength calculation unit 15 of the image processing apparatus 10 is configured as shown in FIG. 14, and the matching strength is calculated by the processing shown in FIG. The rest is the same as in the first embodiment, and therefore only the calculation of the matching strength in step 19 in FIG. 9 will be described here.
【0059】マッチング強度演算部15は、図14に示
すように、マッチング値記憶部71、近傍マッチング値
記憶部72、記憶したマッチング値をその大小によって
並べ替え最小値を求める並べ替え回路62、マッチング
値の最小値を記憶する最小値記憶回路74、パラメータ
推定部75、及びマッチング強度記憶部76からなる。As shown in FIG. 14, the matching strength calculation section 15 includes a matching value storage section 71, a neighborhood matching value storage section 72, a rearrangement circuit 62 for rearranging the stored matching values according to the magnitude thereof, and a matching circuit 62 for obtaining the minimum value. It comprises a minimum value storage circuit 74 for storing the minimum value of the values, a parameter estimator 75, and a matching strength storage 76.
【0060】次に、マッチング強度の演算について説明
する。図9のステップ19で、まずマッチング強度を計
算したいブロックのマッチング値をマッチング値記憶部
71に転送する。次に、図15のステップ61におい
て、マッチング強度を計算したいブロックのマッチング
値の最小値を並べ替え回路73により求め、最小値記憶
部74に記憶し、その時の比較対象側画像から切り出し
たブロックの位置を求める。次に、ステップ62におい
て、その近傍のブロックの切り出しを行なった時のマッ
チング値をマッチング値記憶部71より取りだし、近傍
マッチング値記憶部72に記憶する。次に、ステップ6
3において、これらの値からマッチング値の変化量をパ
ラメータ推定部75にて推定する。Next, the calculation of the matching strength will be described. In step 19 in FIG. 9, first, the matching value of the block whose matching strength is to be calculated is transferred to the matching value storage unit 71. Next, in step 61 of FIG. 15, the minimum value of the matching value of the block whose matching strength is to be calculated is obtained by the reordering circuit 73, stored in the minimum value storage unit 74, and the minimum value of the block cut out from the comparison target side image at that time. Find the position. Next, in step 62, the matching value when the neighboring block is cut out is extracted from the matching value storage unit 71 and stored in the neighborhood matching value storage unit 72. Next, step 6
In 3, the parameter estimating unit 75 estimates the amount of change in the matching value from these values.
【0061】この例では、最小値と両隣の3つの値を下
記〔数1〕の2次関数に当てはめ、関数のパラメータa
を変化量を表す値として使用する。すなわち、このパラ
メータaをマッチング強度とする。そして、このマッチ
ング強度をマッチング強度記憶部76に記憶し、画像処
理装置10のメモリ12に転送し記憶する。〔数1〕に
おいてyはマッチング値、xは各ブロックの位置を表す
変数である。3個の変数a,b,cに対して3本の式が
与えられるので、a,b,cの値を求めることができ
る。In this example, the minimum value and the three values on both sides are applied to a quadratic function of the following [Equation 1] to obtain a parameter a of the function.
Is used as a value representing the amount of change. That is, this parameter a is used as the matching strength. Then, the matching strength is stored in the matching strength storage unit 76, and is transferred to and stored in the memory 12 of the image processing apparatus 10. In [Equation 1], y is a matching value, and x is a variable representing the position of each block. Since three equations are given for the three variables a, b, and c, the values of a, b, and c can be obtained.
【0062】[0062]
【数1】y=ax2+bx+c この実施の形態によると、回路は多少複雑になるが、さ
らに高いブロックマッチングの「正確さ」を達成するこ
とができる。Y = ax 2 + bx + c According to this embodiment, the circuit is slightly complicated, but higher “accuracy” of block matching can be achieved.
【0063】〔実施の形態4〕2枚の画像からその中間
の画像を形成する実施の形態について説明する。実施の
形態1〜3と同様に、図5に示した画像処理層値10の
画像入力インターフェース部17よりカメラ21,22
からの画像を二枚を入力し、画像間で対応点を求める。
次に、実施の形態1〜3におけるステップ26(図9)
の3次元的位置を求める処理を行なうのではなく、求め
た対応点情報を使用して二枚の画像の中間の画像を生成
する。[Embodiment 4] An embodiment in which an intermediate image is formed from two images will be described. As in the first to third embodiments, the cameras 21 and 22 are transmitted from the image input interface unit 17 of the image processing layer value 10 shown in FIG.
Input two images from, and find corresponding points between the images.
Next, step 26 in the first to third embodiments (FIG. 9)
Instead of performing the process of calculating the three-dimensional position, an intermediate image between the two images is generated using the obtained corresponding point information.
【0064】求めた対応点情報を使用し二枚の画像の中
間の画像を画像補間及び画像変形により生成する方法に
ついては様々な方法が知られており、例えば次のような
方法を用いることができる。Various methods are known for generating an intermediate image between two images by image interpolation and image deformation using the obtained corresponding point information. For example, the following method can be used. it can.
【0065】まず、基準側画像上で近隣の点同士を線で
結び、網を形成する。対応点情報により、この網が比較
対象側画像上でどのように変形された状態になるかが計
算される。また、対応する点への移動ベクトルにある係
数αを乗ずることより、変形の中間状態も計算される。
この中間状態の網の形状に対し、基準側画像及び比較対
象側画像上での網の対応する部分を網の形状に沿って変
形した画像を生成し、基準側画像から生成された変形画
像に対し係数αを乗じ、比較対象側画像から生成された
変形画像に(1−α)を乗じ、加算することにより一枚
の中間画像を生成する。First, neighboring points on the reference side image are connected by a line to form a net. Based on the corresponding point information, it is calculated how this network will be deformed on the image to be compared. The intermediate state of the deformation is also calculated by multiplying the movement vector to the corresponding point by a coefficient α.
With respect to the shape of the net in the intermediate state, an image is generated by deforming the corresponding portion of the net on the reference side image and the comparison target side image along the shape of the net, and a deformed image generated from the reference side image is generated. On the other hand, a single intermediate image is generated by multiplying the modified image generated from the image to be compared by (1-α) and multiplying by (1−α).
【0066】生成された中間画像は、誤ったベクトルに
より処理された部分があると、その部分に違和感が生じ
る。本実施の形態では従来の方法に比較して「正確さ」
の向上を図ったブロックマッチングの手法を適用したこ
とにより、結果として得られる画像の視覚的品質が改善
される。In the generated intermediate image, if there is a portion processed by an erroneous vector, a sense of incongruity occurs in that portion. In this embodiment, “accuracy” is compared with the conventional method.
By applying the improved block matching technique, the visual quality of the resulting image is improved.
【0067】〔実施の形態5〕図16は、本発明の他の
実施の形態による画像処理装置のシステム構成図であ
る。この画像処理装置は、動画像圧縮を行う。動画像源
からの動画像を動画像入力ブロックを通じて入力、計算
機本体で処理し、圧縮された画像データを得る。得られ
たデータは外部記憶装置インターフェース部を通じ外部
記憶装置に記録される。[Embodiment 5] FIG. 16 is a system configuration diagram of an image processing apparatus according to another embodiment of the present invention. This image processing apparatus performs moving image compression. A moving image from a moving image source is input through a moving image input block and processed by a computer main body to obtain compressed image data. The obtained data is recorded in the external storage device through the external storage device interface unit.
【0068】画像処理装置本体10は、CPU(中央演
算装置)11、メモリ12、マッチング値演算部13、
マッチング類似度演算部14、マッチング強度演算部1
5、補助記憶装置16、動画像入力インターフェース部
81、外部記憶装置インターフェース部18、ユーザー
インターフェース部19を備える。カメラやビデオ等の
動画像源82は動画像入力インターフェース部81に、
外部記憶装置23は外部記憶装置インターフェイス部1
8に、表示装置24、キーボード25、マウス26はユ
ーザーインターフェイス部19にそれぞれ接続されてい
る。マッチング値演算部13、マッチング類似度演算部
14、マッチング強度演算部15には前述したものを用
いることができる。The image processing apparatus main body 10 includes a CPU (central processing unit) 11, a memory 12, a matching value calculation unit 13,
Matching similarity calculator 14, matching strength calculator 1
5, an auxiliary storage device 16, a moving image input interface unit 81, an external storage device interface unit 18, and a user interface unit 19. A moving image source 82 such as a camera or a video is provided to the moving image input interface unit 81,
The external storage device 23 is an external storage device interface unit 1
8, a display device 24, a keyboard 25, and a mouse 26 are connected to the user interface unit 19, respectively. As the matching value calculation unit 13, matching similarity calculation unit 14, and matching strength calculation unit 15, those described above can be used.
【0069】動画像入力インターフェース部81より動
画像源82からの動画像を構成する画像群のうちの二枚
を入力する。通常は、動画像上で連続する二枚もしくは
時間的に近い二枚が入力される。二枚の画像のうちどち
らか基準側とする。入力された二枚の画像に対し、先の
実施の形態のステップ12からステップ25(図9)と
同一の処理を施す。その結果、基準側の画像全域に対
し、二枚の画像間の動きベクトルが得られる。この動き
ベクトルを使用して動画像を圧縮するアルゴリズムは様
々な方法が知られており、例えば以下の方法を用いるこ
とができる。The moving image input interface unit 81 inputs two of the images constituting the moving image from the moving image source 82. Normally, two continuous or two temporally continuous images are input on a moving image. One of the two images is the reference side. The same processing as in steps 12 to 25 (FIG. 9) of the above embodiment is performed on the two input images. As a result, a motion vector between the two images is obtained for the entire image on the reference side. Various methods are known as an algorithm for compressing a moving image using the motion vector. For example, the following method can be used.
【0070】二枚の画像より求められた動きベクトルを
用い、基準側画像から動きベクトルを求めた時と同一の
サイズのブロックを取り出し、動きベクトルに従い並行
移動する。基準側画像全体に対しこの操作を行ない、重
ね合わせることによって一枚の画像を生成する。次に、
この画像と比較対象側画像との差を取る。この差は予測
誤差画像と呼ばれ、比較対象側画像に比べ同一の圧縮手
段を用いてもより高い圧縮率で圧縮できるという特徴を
持つ。この差に対し、通常の静止画と同じ圧縮を行な
う。Using the motion vector obtained from the two images, a block having the same size as that obtained when the motion vector was obtained from the reference side image is taken out and moved in parallel according to the motion vector. This operation is performed on the entire reference side image, and a single image is generated by superimposing. next,
The difference between this image and the image to be compared is taken. This difference is called a prediction error image, and has the characteristic that it can be compressed at a higher compression ratio even with the same compression means as compared to the image to be compared. The same compression as that of a normal still image is performed on this difference.
【0071】画像圧縮において誤ったベクトルにより処
理された部分があると、伸長後の再生画像に違和感が生
じる。この実施の形態では、本発明によるブロックマッ
チングの「正確さ」が向上された画像処理の手法を動画
像等の圧縮に利用することにより、結果として得られる
画像の視覚的品質を改善することができる。If there is a part processed by an erroneous vector in the image compression, the reproduced image after decompression has a strange feeling. In this embodiment, the visual quality of the resulting image can be improved by using the image processing technique with improved “accuracy” of block matching according to the present invention for compression of a moving image or the like. it can.
【0072】〔実施の形態6〕本発明の他の実施の形態
による画像処理装置について説明する。この実施の形態
では、実施の形態5と同様に図16に示したシステム構
成を用い、動画像補間を行う。動画像源からの動画像を
動画像入力ブロックを通じて入力、計算機本体で処理
し、補間された画像データを得る。得られたデータは外
部記憶装置インターフェース部を通じ外部記憶装置に記
録される。[Embodiment 6] An image processing apparatus according to another embodiment of the present invention will be described. In this embodiment, the moving image interpolation is performed using the system configuration shown in FIG. 16 as in the fifth embodiment. A moving image from a moving image source is input through a moving image input block, processed by a computer main body, and interpolated image data is obtained. The obtained data is recorded in the external storage device through the external storage device interface unit.
【0073】動画像入力インターフェース部81よりカ
メラやビデオ等の動画像源82からの動画像を構成する
画像群のうちの二枚を入力し、動きベクトルを求める。
求めた動きベクトルより動画像中の二枚の画像の中間画
像を画像補間及び画像変形により生成する。この方法に
ついて様々な方法が知られており、例えば以下の方法を
使用することができる。A moving image input interface unit 81 inputs two of a group of images constituting a moving image from a moving image source such as a camera or a video to obtain a motion vector.
An intermediate image of two images in the moving image is generated from the obtained motion vector by image interpolation and image deformation. Various methods are known for this method. For example, the following methods can be used.
【0074】二枚の画像より求められた動きベクトルを
用い、基準側画像から動きベクトルを求めた時と同一の
サイズのブロックを取り出し、動きベクトルに定数βを
乗じたベクトルに従い並行移動する。基準側画像全体に
対しこの操作を行ない、重ね合わせることによって一枚
の画像を生成する。同様の操作を比較対象側画像に関し
ても行なう。ただし、動きベクトルには(1−β)を乗
ずる。このようにして求めた二枚の画像に対し、基準側
画像から求めた画像にはβを乗じ、比較対象側画像から
求めた画像には(1−β)を乗じて加算し、一枚の画像
を合成する。これが中間画像となる。Using the motion vector obtained from the two images, a block having the same size as that obtained when the motion vector is obtained from the reference side image is taken out, and is moved in parallel according to a vector obtained by multiplying the motion vector by a constant β. This operation is performed on the entire reference side image, and a single image is generated by superimposing. The same operation is performed on the comparison target image. However, the motion vector is multiplied by (1−β). To the two images obtained in this way, the image obtained from the reference side image is multiplied by β, and the image obtained from the comparison target side image is multiplied by (1−β) and added. Combine images. This is the intermediate image.
【0075】誤ったベクトルにより処理された部分があ
ると、生成された中間画像に違和感が生じる。本実施の
形態によると、本発明によってブロックマッチングの
「正確さ」の向上を図った画像処理方法を動画像等の補
間/中間画像の生成に適用することにより、結果として
得られる画像の視覚的品質が改善される。If there is a portion processed by an erroneous vector, a sense of incongruity occurs in the generated intermediate image. According to the present embodiment, by applying an image processing method that improves the “accuracy” of block matching according to the present invention to the generation of an interpolation / intermediate image such as a moving image, the visual quality of the resulting image can be improved. Quality is improved.
【0076】[0076]
【発明の効果】本発明によると、ブロックマッチングの
「正確さ」を向上し、物体と動きが異なりテクスチャに
乏しい背景との境界領域付近等での誤対応を減少するこ
とができる。また、このようにして「正確さ」の向上し
たブロックマッチングを利用することにより、計測精度
の向上及び画像の視覚的品質の改善を図ることができ
る。According to the present invention, the "accuracy" of block matching can be improved, and erroneous correspondence in the vicinity of a boundary region between the object and the background having a different texture and poor texture can be reduced. In addition, by using the block matching with improved “accuracy” in this way, it is possible to improve measurement accuracy and visual quality of an image.
【図1】一対の入力画像の例と、そこからのブロックの
切り出し及び対応する箇所を説明するための概念図。FIG. 1 is a conceptual diagram for explaining an example of a pair of input images, cutting out blocks from the input images, and corresponding portions.
【図2】入力画像からブロックが切り出される様子の一
例を示す図。FIG. 2 is a diagram showing an example of a state in which a block is cut out from an input image.
【図3】入力画像から注目ブロックと周辺ブロックが切
り出される様子の一例を示す図。FIG. 3 is a diagram illustrating an example of a state in which a target block and peripheral blocks are cut out from an input image.
【図4】重み付け係数の説明図。FIG. 4 is an explanatory diagram of a weighting coefficient.
【図5】本発明の一実施の形態による画像処理装置のシ
ステム構成図。FIG. 5 is a system configuration diagram of an image processing apparatus according to an embodiment of the present invention.
【図6】マッチング値演算部の詳細図。FIG. 6 is a detailed diagram of a matching value calculation unit.
【図7】マッチング類似度演算部の詳細図。FIG. 7 is a detailed diagram of a matching similarity calculation unit.
【図8】マッチング強度演算部の詳細図。FIG. 8 is a detailed diagram of a matching strength calculation unit.
【図9】処理のフローチャートを示す図。FIG. 9 is a diagram showing a flowchart of a process.
【図10】マッチング類似度計算の処理フローの一例を
示す図。FIG. 10 is a diagram showing an example of a processing flow of matching similarity calculation.
【図11】マッチング強度計算の処理フローの一例を示
す図。FIG. 11 is a diagram showing an example of a processing flow of matching strength calculation.
【図12】マッチング強度演算部の他の例の詳細図。FIG. 12 is a detailed view of another example of the matching strength calculation unit.
【図13】マッチング強度計算の処理フローの他の例を
示す図。FIG. 13 is a diagram showing another example of the processing flow of the matching strength calculation.
【図14】マッチング強度演算部の他の例の詳細図。FIG. 14 is a detailed view of another example of the matching strength calculation unit.
【図15】マッチング強度計算の処理フローの他の例を
示す図。FIG. 15 is a diagram showing another example of the processing flow of the matching strength calculation.
【図16】本発明の他の実施の形態による画像処理装置
のシステム構成図。FIG. 16 is a system configuration diagram of an image processing apparatus according to another embodiment of the present invention.
1…基準画像、2…比較画像、3…被写体、4…基準と
なる画像から切り出されたブロック、5…比較の対象と
なる画像上でブロックと対応するブロック、6…注目ブ
ロック、7…画素、8a〜8h…周辺ブロック、10…
画像処理装置、11…CPU(中央演算装置)、12…
メモリ、13…マッチング値演算部、14…マッチング
類似度演算部、15…マッチング強度演算部、16…補
助記憶装置、17…画像入力インターフェース部、18
…外部記憶装置インターフェース部、19…ユーザーイ
ンターフェース部、21,22…カメラ、23…外部記
憶装置、24…表示装置、25…キーボード、26…マ
ウス、81…動画像入力インターフェース部、82…動
画像源、31…ブロック1記憶部、32…ブロック2記
憶部、33…減算回路、34…積和回路、35…マッチ
ング値記憶部、41…注目ブロックマッチング値記憶
部、42…周辺ブロックマッチング値記憶部、43,4
4…並べ替え回路、45…共通部分検出回路、46…カ
ウンター、47…除算回路、48…マッチング類似度記
憶部、51…マッチング値記憶部、52…積和回路、5
3…除算回路、54…最小値記憶部、55…減算回路、
56…マッチング強度記憶部、61…マッチング値記憶
部、62…並べ替え回路、63…積和回路、64…除算
回路、65…最小値記憶部、66…減算回路、67…マ
ッチング強度記憶部、71…マッチング値記憶部、72
…近傍マッチング値記憶部、73…並べ替え回路、74
…最小値記憶部、75…パラメータ推定部、76…マッ
チング強度記憶部DESCRIPTION OF SYMBOLS 1 ... Reference image, 2 ... Comparative image, 3 ... Subject, 4 ... Block cut out from the reference image, 5 ... Block corresponding to the block on the image to be compared, 6 ... Target block, 7 ... Pixel , 8a-8h ... peripheral blocks, 10 ...
Image processing device, 11 CPU (central processing unit), 12
Memory, 13 matching value calculation unit, 14 matching similarity calculation unit, 15 matching strength calculation unit, 16 auxiliary storage device, 17 image input interface unit, 18
... external storage device interface unit, 19 ... user interface unit, 21, 22 ... camera, 23 ... external storage device, 24 ... display device, 25 ... keyboard, 26 ... mouse, 81 ... moving image input interface unit, 82 ... moving image Source 31: Block 1 storage unit 32: Block 2 storage unit 33: Subtraction circuit 34: Product-sum circuit 35: Matching value storage unit 41: Target block matching value storage unit 42: Peripheral block matching value storage Part, 43, 4
4 ... rearrangement circuit, 45 ... common part detection circuit, 46 ... counter, 47 ... division circuit, 48 ... matching similarity storage unit, 51 ... matching value storage unit, 52 ... product-sum circuit, 5
3: division circuit, 54: minimum value storage unit, 55: subtraction circuit,
56: matching strength storage unit, 61: matching value storage unit, 62: rearrangement circuit, 63: product-sum circuit, 64: division circuit, 65: minimum value storage unit, 66: subtraction circuit, 67: matching strength storage unit, 71 ... matching value storage unit, 72
... Neighborhood matching value storage unit 73, rearrangement circuit 74
... Minimum value storage unit, 75 ... Parameter estimation unit, 76 ... Matching strength storage unit
Claims (8)
ッチング法により動きベクトル及び/又は対応点検出を
行なう画像処理方法において、 注目ブロックと近傍のブロックのマッチングの類似度及
びマッチング強度を考慮して決定した重みを用いて注目
ブロックの近傍のブロックのマッチング結果を重み付き
加算することにより最終的なマッチング結果を算出する
ことを特徴とする画像処理方法。1. An image processing method for detecting a motion vector and / or a corresponding point from two mutually different images by a block matching method, wherein the determination is made in consideration of a similarity and a matching strength of matching between a target block and a nearby block. An image processing method, wherein a final matching result is calculated by performing weighted addition of a matching result of a block near a block of interest using the calculated weight.
前記マッチング強度を算出する手段としてマッチングの
全体平均を使うことを特徴とする画像処理方法。2. The image processing method according to claim 1, wherein
An image processing method, wherein an overall average of matching is used as means for calculating the matching strength.
前記マッチング強度を算出する手段としてマッチングの
上位の平均を使うことを特徴とする画像処理方法。3. The image processing method according to claim 1, wherein
An image processing method characterized by using a higher average of matching as a means for calculating the matching strength.
前記マッチング強度を算出する手段としてマッチング周
辺の変化量を使うことを特徴とする画像処理方法。4. The image processing method according to claim 1, wherein
An image processing method, wherein a change amount around matching is used as means for calculating the matching strength.
処理方法を使用してステレオ画像の対応点探索を行な
い、その結果を演算処理することにより3次元形状計測
及び/又は距離計測を行うことを特徴とする方法。5. A three-dimensional shape measurement and / or a distance measurement by performing a corresponding point search of a stereo image using the image processing method according to any one of claims 1 to 4, and processing the result. Performing the method.
処理方法を使用してステレオ画像の対応点探索を行な
い、その結果を演算処理し、ステレオ画像から画像補
間、画像変形等の手段を用いステレオ画像の中間の視点
からの画像となる疑似画像を一枚あるいは複数枚生成す
ることを特徴とする画像処理方法。6. A method for searching a corresponding point of a stereo image by using the image processing method according to claim 1, calculating a result of the search, and performing image interpolation, image transformation, and the like from the stereo image. An image processing method for generating one or a plurality of pseudo images as images from an intermediate viewpoint of a stereo image using the means.
処理方法を使用して動画像の動きベクトル検出を行ない
動画像を圧縮することを特徴とする画像処理方法。7. An image processing method comprising compressing a moving image by detecting a motion vector of the moving image using the image processing method according to claim 1.
処理方法を使用して動画像の動きベクトル検出を行な
い、動画像中の任意の二枚の画像から画像補間、画像変
形等の手段を用い、動画中の二枚の画像の中間画像とな
る疑似画像を一枚あるいは複数枚生成することを特徴と
する画像処理方法。8. A motion vector of a moving image is detected using the image processing method according to any one of claims 1 to 4, and image interpolation, image deformation, and the like are performed from any two images in the moving image. An image processing method comprising: generating one or a plurality of pseudo images serving as intermediate images between two images in a moving image by using the means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5664897A JPH10255049A (en) | 1997-03-11 | 1997-03-11 | Image processing method using block matching |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5664897A JPH10255049A (en) | 1997-03-11 | 1997-03-11 | Image processing method using block matching |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10255049A true JPH10255049A (en) | 1998-09-25 |
Family
ID=13033188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5664897A Pending JPH10255049A (en) | 1997-03-11 | 1997-03-11 | Image processing method using block matching |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10255049A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004508639A (en) * | 2000-09-07 | 2004-03-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image matching |
JP2010049607A (en) * | 2008-08-25 | 2010-03-04 | Mitsubishi Electric Corp | Content reproduction device and method |
-
1997
- 1997-03-11 JP JP5664897A patent/JPH10255049A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004508639A (en) * | 2000-09-07 | 2004-03-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image matching |
JP4700892B2 (en) * | 2000-09-07 | 2011-06-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image matching |
JP2010049607A (en) * | 2008-08-25 | 2010-03-04 | Mitsubishi Electric Corp | Content reproduction device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2978406B2 (en) | Apparatus and method for generating motion vector field by eliminating local anomalies | |
JPH0799660A (en) | Motion compensation predicting device | |
US20180144485A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2000512440A (en) | Motion vector field coding | |
JP2007000205A (en) | Image processing apparatus, image processing method, and image processing program | |
CN113542868A (en) | Video key frame selection method and device, electronic equipment and storage medium | |
JP2019125204A (en) | Target recognition device, target recognition method, program and convolution neural network | |
US20060098886A1 (en) | Efficient predictive image parameter estimation | |
JPH08280026A (en) | Method and device for estimating motion and depth | |
KR20190080737A (en) | Method and apparatus for processing image and computer program product thereof | |
US20130301928A1 (en) | Shift vector reliability determining apparatus and method | |
US7636095B2 (en) | Pixel delta interpolation method and apparatus | |
US7751613B2 (en) | Method for rapidly establishing image space relation using plane filtering constraint | |
JP7145440B2 (en) | LEARNING DATA GENERATION METHOD, LEARNING DATA GENERATION DEVICE, AND PROGRAM | |
JP6057629B2 (en) | Image processing apparatus, control method thereof, and control program | |
CN111784733A (en) | Image processing method, device, terminal and computer readable storage medium | |
CN114723809A (en) | Method and device for estimating object posture and electronic equipment | |
Sim et al. | Robust reweighted MAP motion estimation | |
US8558948B2 (en) | System, method, and apparatus for providing improved high definition video from upsampled standard definition video | |
JPH10255049A (en) | Image processing method using block matching | |
CN103618904A (en) | Motion estimation method and device based on pixels | |
CN113221971A (en) | Multi-scale crowd counting method and system based on front and back feature fusion | |
JP4250806B2 (en) | Field frequency conversion device and conversion method | |
CN115633178A (en) | Video frame image motion estimation method and related equipment | |
JP2005339535A (en) | Calculation of dissimilarity measure |