[go: up one dir, main page]

JP3764364B2 - 画像特徴点検出方法、画像処理方法、及びプログラム - Google Patents

画像特徴点検出方法、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP3764364B2
JP3764364B2 JP2001303409A JP2001303409A JP3764364B2 JP 3764364 B2 JP3764364 B2 JP 3764364B2 JP 2001303409 A JP2001303409 A JP 2001303409A JP 2001303409 A JP2001303409 A JP 2001303409A JP 3764364 B2 JP3764364 B2 JP 3764364B2
Authority
JP
Japan
Prior art keywords
image
region
subject
searching
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001303409A
Other languages
English (en)
Other versions
JP2002203243A (ja
Inventor
信幸 松本
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001303409A priority Critical patent/JP3764364B2/ja
Priority to US09/984,688 priority patent/US20020051572A1/en
Publication of JP2002203243A publication Critical patent/JP2002203243A/ja
Priority to US11/311,483 priority patent/US20060188160A1/en
Application granted granted Critical
Publication of JP3764364B2 publication Critical patent/JP3764364B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像中の被写体の変化やコーナーを検出する画像処理方法及び装置、画像特徴点検出方法及びプログラム、並びに位置指定支援方法及びプログラムに関する。
【0002】
【従来の技術】
カメラで撮影された画像を利用して監視や検査を実現する手法として、背景差分法が知られている。これは、予め撮影しておいた背景画像とカメラによる入力画像を比較することで、簡単に入力画像内での変化を検出する手法である。
【0003】
背景差分法では、参照画像となる背景画像を予め撮影しておき、処理対象の画像を入力して参照画像と比較する。入力画像が図40(a)、参照画像が図40(b)とすると、入力画像と参照画像の差分をとることによって、図40(c)に示す比較結果が得られる。図40(c)では、背景画像には存在しない、入力画像中の左上の変化が抽出されている。
【0004】
また、画像から被写体のコーナーを検出する方法として、文献1“SUSAN-a new approach to low level image processing”,S. M. Steve and M. Brady(International Journal on Computer Vision, 23(1), pp. 45-78, 1997)、に開示されたSUSANオペレータが知られている。
【0005】
【発明が解決しようとする課題】
背景差分法では画像上に現れる明度の変化をすべて対象として検出するため、入力画像上の背景領域で明度変化が起こるような環境では誤検出が生じるという問題点がある。また、処理対象の画像を入力するカメラがぶれた場合に生じる背景の平行移動に関しても、移動領域として抽出してしまうという問題点がある。
【0006】
さらに、SUSANオペレータと呼ばれる従来のコーナー検出方法では、コントラストがはっきりした画像でないと正しいコーナー検出ができず、またスポット状のノイズを誤検出してしまうという問題点がある。
【0007】
本発明は上記のような従来技術の欠点を除去するためになされたもので、その目的は、入力画像上の背景領域での明度変化や入力画像全体への手ぶれによる影響等によらず、適切に被写体変化を検出できる画像処理方法及び装置を提供することにある。
【0008】
また、本発明は入力画像のコントラストがはっきりせず、またスポット状のノイズがあるような場合でも、適切にコーナー検出を行うことができる画像処理方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決し目的を達成するために本発明に係る画像処理方法は、処理対象の入力画像から特徴量を抽出する第1の特徴量抽出ステップと、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出ステップと、抽出された前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較ステップとを有することを特徴とする。
【0010】
また、本発明に係る画像処理装置は、処理対象の入力画像から特徴量を抽出する第1の特徴量抽出手段と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出手段と、抽出された前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較手段とを有することを特徴とする。
【0011】
また、本発明に係る画像特徴点検出方法は、処理対象の入力画像から、被写体の形状をなす点集合内の一点を該形状の特徴を表す特徴点として検出する画像特徴点検出方法において、前記被写体の少なくとも一部分を含む矩形からなる注目領域を前記入力画像上に配置するステップと、前記注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いる演算により探索する探索ステップと、前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算するステップと、前記写像における固定点を前記特徴点として検出するステップとを有することを特徴とする。
【0012】
また、本発明の位置指定支援方法は、処理対象の入力画像上における被写体の形状特徴を表す特徴点を、位置指定手段を用いて指定する際に適用される位置指定支援方法において、前記特徴点の近傍の一点を、前記位置指定手段を用いて指定するステップと、前記被写体の少なくとも一部分を含む矩形からなる注目領域を、前記位置指定手段による指定点を中心として配置するステップと、前記注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いる演算により探索する探索ステップと、前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算するステップと、前記写像における固定点を前記特徴点として検出するステップと、前記位置指定手段による指定点を、検出された前記特徴点の位置に移動するステップとを有することを特徴とする。
【0013】
また、本発明のプログラムは、処理対象の入力画像から特徴量を抽出する第1の特徴量抽出手順と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出手順と、抽出された前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較処理とをコンピュータに実行させるプログラムである。
【0014】
また、本発明のプログラムは、処理対象の入力画像から特徴量を抽出する第1の特徴量抽出手順と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出手順と、抽出された前記入力画像の特徴量と前記参照画像の特徴量の位置ずれを算出する位置ずれ算出手順と、算出された位置ずれに基づいて前記抽出された前記入力画像の特徴量及び前記参照画像の特徴量の相対位置を補正する位置補正手順と、前記相対位置が補正された後の前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較手順とをコンピュータに実行させるプログラムである。
【0015】
また、本発明のプログラムは、処理対象の入力画像から、被写体の形状をなす点集合内の一点を該形状の特徴を表す特徴点として検出するプログラムであって、前記被写体の少なくとも一部分を含む矩形からなる注目領域を前記入力画像上に配置する配置手順と、前記注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いる演算により探索する探索手順と、前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算する計算手順と、前記写像における固定点を前記特徴点として検出する検出手順とをコンピュータに実行させるプログラムである。
【0016】
また、本発明のプログラムは、処理対象の入力画像上における被写体の形状特徴を表す特徴点を、位置指定手段を用いて指定する際に適用されるプログラムであって、前記特徴点の近傍の一点を、前記位置指定手段を用いて指定する指定手順と、前記被写体の少なくとも一部分を含む矩形からなる注目領域を、前記位置指定手段による指定点を中心として配置する配置手順と、前記注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いる演算により探索する探索手順と、前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算する計算手順と、前記写像における固定点を前記特徴点として検出する検出手順と、前記位置指定手段による指定点を、検出された前記特徴点の位置に移動する移動手順とをコンピュータに実行させるプログラムである。
【0017】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
(第1実施形態)
図1(a)(b)は、本発明の第1実施形態に係る画像処理装置の構成を示すブロック図である。図1(a)に示す画像処理装置において、画像入力部1は例えばビデオカメラや電子スチルカメラのような画像撮像装置から構成され、被写体の光学像を入力し、処理対象とする電子的な入力画像を生成する。
【0018】
この画像入力部1から与えられる入力画像は、第1の特徴量抽出部2に入力され、その特徴量が抽出される。参照画像蓄積部3は、入力画像に対応して予め定められた参照画像、例えば画像入力部1によって以前に入力された画像(より詳しくは、同じ被写体を撮影して得られた画像)を蓄積している。この参照画像蓄積部3から入力画像に対応して読み出された参照画像は、第2の特徴量抽出部4に入力され、同様に特徴量が抽出される。
【0019】
第1の特徴量抽出部2及び第2の特徴量抽出部4によってそれぞれ抽出された入力画像特徴量及び参照画像特徴量は、特徴量比較部5によって比較され、例えば両者の差分が求められる。特徴量比較部5の比較結果、例えば入力画像特徴量及び参照画像特徴量の差分画像は、画像表示装置や記録装置のような画像出力部6によって出力される。
【0020】
図1(b)は、図1(a)を変形した画像処理装置であり、図1(a)における参照画像蓄積部3及び第2の特徴量抽出部4に代えて、参照画像の特徴量を予め求めて蓄積した参照画像特徴量蓄積部7が用いられている。そして、この参照画像特徴量蓄積部7から入力画像に対応して読み出された参照画像が特徴量比較部5によって入力画像特徴量と比較される。
【0021】
次に、図2に示すフローチャートを用いて本実施形態における画像処理の手順を説明する。
まず、処理対象の画像を例えばカメラによって入力する(ステップS11)。次に、このステップS11において入力した画像の特徴量を抽出する(ステップS12)。この入力画像特徴量としては、画像の全体的な明度変化に関係しない特徴量として、入力画像の輪郭線(特に、入力画像中の被写体の輪郭線)を検出する。輪郭線を検出する方法としては、例えば、文献2「LIFSを用いた被写体輪郭線の高精度な抽出」井田、三本杉、渡邊(電子情報通信学会論文誌、D-II, Vol. J82-D-II, No. 8, pp. 1282-1289, August 1998)による輪郭線抽出方法や、動的輪郭線を使うスネイク法など、既知の輪郭線抽出方法を用いることができる。
【0022】
従来の技術での背景差分法の説明と同じく、図40(a)に示した画像が入力されたとすると、ステップS12では入力画像特徴量として、図3(a)に示されるように輪郭線が抽出される。参照画像についても入力画像と同様に、特徴量として参照画像中の被写体の輪郭線を抽出する(ステップS13)。参照画像が図40(b)であるとすると、ステップS13では参照画像特徴量として、図3(b)に示されるように輪郭線が抽出される。
【0023】
画像処理装置の構成が図1(a)の場合、ステップS13の処理は第2の特徴量抽出部4によって行われるが、図1(b)の場合には、ステップS13の処理は参照画像特徴量蓄積部7に参照画像の特徴量を蓄積する段階で予め行われる。従って、ステップS13の順序はステップS11の前になることもあり得る。
【0024】
次に、入力画像特徴量と参照画像特徴量を例えば両者の差分をとることによって比較し(ステップS14)、その比較結果を画像として出力する(ステップS15)。図3(a)の入力画像の輪郭線の画像と図3(b)の参照画像の輪郭線の画像との比較結果である差分画像は、図3(c)に示されるようになる。図3(c)では、入力画像中の左上に存在する変化が抽出されている。
【0025】
このように本実施形態では、入力画像と参照画像の比較対象として、明度変化の影響を大きく受ける画像の輝度そのものではなく、被写体の輪郭線を用いて、画像内の変化を検出したことにより、入力画像上の背景領域で明度変化が起こる場合でも、精度良く被写体の変化を検出することができる。
【0026】
ステップS12及びステップS13での特徴量である輪郭線の抽出の際に、前述した文献2に記載された方法や、スネイク法を用いる場合には、はじめに被写体の概略形状を知ることが必要となる。そこで、参照画像については、手動操作などで概略形状を設定して輪郭線を抽出する。入力画像についても、手動操作で概略形状を設定して構わないが、その代わりに参照画像の輪郭線を概略形状として用いれば、手動操作を省けて便利である。
【0027】
以下、参照画像の輪郭線を概略形状として入力画像の輪郭線を求める手順について図4を用いて説明する。まず、参照画像Aに対して手動操作で被写体を囲むように概略形状Bを入力する(ステップS21)。次に、この概略形状Bを示す枠の内側の被写体の輪郭線Cを参照画像の輪郭線として抽出する(ステップS22)。次に、ステップS22で抽出された参照画像の輪郭線Cを入力画像Dに対して入力し(ステップS23)、参照画像の輪郭線Cの内側の入力画像Dの輪郭線Fを抽出する(ステップS24)。そして、最後にステップS22で抽出された参照画像の輪郭線CとステップS24で抽出された入力画像の輪郭線Fを比較する(ステップS25)。
【0028】
このような画像処理方法によると、例えばカメラに写る画像に変化が生じた時に発報する監視システムにおいて、予め正常な状態の輪郭線を抽出して参照画像の輪郭線として保持しておき、一定の時間間隔で取得する入力画像からそれぞれ輪郭線を抽出して逐次正常な輪郭線と比較し、差があったときに発報するというシステムを自動化できる。
【0029】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態における画像処理装置の構成は、第1の実施形態の図1に示した構成と同様である。処理手順も基本的には図2に示したフローチャートと同様である。入力画像及び参照画像からの特徴量の抽出手法が第1の実施形態とは異なる。
【0030】
第1の実施形態においては、入力画像特徴量及び参照画像特徴量を抽出する際に、画像の全体的な明度変化に関係しない特徴量として、画像中の被写体の輪郭線を抽出した。これに対し、第2実施形態においては、特徴量として画像中のコーナーを抽出する。そして、抽出されたコーナーに基づいて画像内の被写体の変化を検出する。コーナーを検出する方法としては、後述する第5実施形態に記載の方法を利用することが好ましい。
【0031】
また、コーナーを検出する他の方法としては、例えば、画像という2次元関数の曲率を表現するヘッセ行列の行列式を用いる方法、ノイズの影響を抑えたガウス曲率による方法、あるいは先の文献1“SUSAN-a new approach to low level image processing”,S. M. Steve and M. Brady(International Journal on Computer Vision, 23(1), pp. 45-78, 1997)に開示されたSUSANオペレータなど、既知の種々のコーナー検出方法を用いることができる。
【0032】
第1の実施形態での説明と同様に入力画像が図40(a)、参照画像が図40(b)であるとする。第2の実施形態では、図2の入力画像特徴量抽出ステップS12及び参照画像特徴量抽出ステップS13において、入力画像の特徴量として図5(a)に示すコーナーを、参照画像の特徴量として図5(b)に示すコーナーをそれぞれ抽出する。
【0033】
これらコーナ抽出により得られた入力画像特徴量と参照画像特徴量の差分を図2のステップS14でとると、ステップS15で出力される比較結果は図5(c)となる。
【0034】
このように本実施形態によると、入力画像及び参照画像の比較対象として被写体のコーナーを用いて入力画像内の変化を検出することにより、入力画像上の背景領域で明度変化が起こる場合でも、被写体の輪郭線を用いた場合と同様に、精度良く被写体の変化を検出することができる。
【0035】
(第3の実施形態)
図6は、本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。本実施形態の画像処理装置は、図1に示した第1の実施形態の画像処理装置に位置ずれ算出部8及び位置補正部9が追加された構成となっている。
【0036】
位置ずれ算出部8は、第1及び第2の特徴量抽出部2,4においてそれぞれ抽出された入力画像特徴量と参照画像特徴量との相対的な位置のずれ量を算出する。位置補正部9は、位置ずれ算出部8によって算出されたずれ量を基に、入力画像特徴量と参照画像特徴量の少なくとも一方を補正する。例えば本実施形態では、位置ずれ補正部9は入力画像特徴量を補正対象とする。そして、位置補正後の入力画像特徴量と参照画像特徴量とが特徴量比較部5によって比較され、その比較結果が画像出力部6によって出力される。
【0037】
図7に示すフローチャートを参照して、本実施形態における画像処理の手順っを説明する。本実施形態は、図2に示した第1の実施形態の画像処理手順に、入力画像と参照画像との相対的な位置のずれ量を算出するステップS16と、ステップS16で算出された位置のずれ量を基に入力画像特徴量の位置を補正するステップS17が追加されている。
【0038】
第1及び第2の実施形態では、図2における特徴量比較ステップS15において入力画像特徴量と参照画像特徴量の差分を直接計算した。これに対して、本実施形態では特徴量を第2の実施形態で説明した被写体のコーナー部分とし、特徴量比較ステップS15ではステップS17で位置補正された後の入力画像特徴量と参照画像特徴量を比較する。
【0039】
位置ずれ算出ステップS16においては、入力画像特徴量抽出ステップS12で抽出された入力画像のコーナー位置と、参照画像特徴量抽出ステップS13で抽出された参照画像のコーナー位置について、予め指定しておいた基準のコーナー位置がどれだけ画像上でずれたかを算出する。もしくは、全てのコーナー位置から入力画像と参照画像のずれを算出する。位置補正ステップS17では、位置ずれ算出ステップS16で算出されたずれを基に、参照画像特徴量からの入力画像特徴量の位置ずれがなくなるように入力画像特徴量の位置を補正して入力画像を変換する。
【0040】
このように本実施形態では、入力画像と参照画像との間に相対的な位置ずれがあっても、その位置ずれを補正して特徴量を比較することにより、被写体の変化を的確に検出することができる。
【0041】
さらに、本実施形態によれば、参照画像として予め撮影しておいた背景画像でなく、動画像における入力画像の1フレーム前の画像を用いることにより、動画撮影時の手ぶれ補正を行うことも可能である。
【0042】
(第4の実施形態)
次に、本発明の第4の実施形態を説明する。本実施形態における画像処理装置の構成は、第3の実施形態の図6に示した構成と同様であり、また処理手順も基本的には図7に示したフローチャートと同様であるが、具体的な処理の内容が第3の実施形態と異なっている。
【0043】
第3の実施形態の説明では、図7のステップS12及びS13において入力画像特徴量及び参照画像特徴量として被写体のコーナーを抽出し、位置ずれ算出ステップS16、位置補正ステップS17及び特徴量比較ステップS14の処理も全て被写体のコーナーについて行った。これに対して、第4の実施形態では第1の実施形態で説明した輪郭線画像の差分を用いて被写体の変化を検出する画像処理方法に、第3の実施形態で用いた被写体のコーナーのずれを利用する。
【0044】
すなわち、入力画像のコーナーと参照画像のコーナーから算出された入力画像と参照画像の相対的な位置ずれを基に入力画像の輪郭線画像の位置を補正した後に、入力画像の輪郭線画像と参照画像の輪郭線画像の差分をとって被写体の変化を検出する。この場合、図7の入力画像特徴量抽出ステップS12及び参照画像特徴量抽出ステップS13では、入力画像及び参照画像から被写体のコーナーと輪郭線画像の二つの特徴量を抽出し、位置ずれ算出ステップS16ではコーナーを用い、位置補正ステップS17及び特徴量比較ステップS14では、輪郭線画像を用いることになる。
【0045】
従って、本実施形態によると、入力画像上の背景領域で明度変化が起こり、かつ、入力画像がぶれた場合でも、精度良く画像内の被写体の変化を検出することができる。
【0046】
(第5の実施形態)
次に、本発明の第5の実施形態として、画像中から特徴量としてコーナーを検出する新規な手法について説明する。第3の実施形態や第4の実施形態における図7の入力画像特徴量抽出ステップS12及び参照画像特徴量抽出ステップS13で被写体のコーナーを検出する方法として、本実施形態では図8のフローチャートに示される手順を用いる。
【0047】
図8は本発明の第5実施形態に係り、画像中のコーナーの頂点などの特徴点を検出する処理の概略手順を示すフローチャートである。先ず、ステップS11では、ブロックRを、特徴点がその近くにあると推定される位置に配置する。ブロックRは、矩形の画像領域であり、その具体例は後述する。
【0048】
例えば、動画像の場合には、過去に特徴点が存在した位置を中心にしてブロックRを配置する。また、利用者が画像を目視しながら、おおよそのコーナーの頂点の位置を指定入力したときは、その位置を中心にしてブロックRを配置する。あるいは、画面全体を特徴点の抽出対象とする場合は、逐次的に、複数のブロックRを配置する。
【0049】
次にステップS12では、ブロックRと相似なブロックDを探索する。
【0050】
ステップS13では、ブロックDからブロックRへの写像における固定点を特徴点として決定する。
【0051】
ここで、ブロックRとブロックDの例を図9に示す。この例では、ブロックDとブロックRは正方形であり、ブロックDはブロックRよりも大きい。黒丸は、ブロックDからブロックRへの写像において移動しない点すなわち固定点である。この固定点が画像のコーナーの頂点に一致する様子を図10に示す。
【0052】
図10において、W1はブロックRに、W2はブロックDに相当する。コーナーが存在すると推定又は指定された位置をpとし、このpを中心としてブロックW1を配置した結果が図10(a)である。ハッチングにより示す領域が被写体である。一般に、被写体の構成部分であるコーナーの頂点qは、pに対してずれている(但し、偶然一致することもある)。このブロックW1に対して、相似なブロックW2を探索して求めた結果を図10(b)に示す。ブロックW1とブロックW2の図柄が相似であることが見て分かる。
【0053】
ここで、ブロックW2からブロックW1への写像を考えた時、その写像の固定点は図10(c)のように被写体のコーナーの頂点と一致する。写像の固定点は、幾何的には、ブロックW1とブロックW2との間で対応する頂点を結んで得られる少なくとも2つの直線の交点である。このように互いに相似なブロックの間の写像において、その固定点が被写体のコーナーの頂点と一致することを、写像の不変集合と関係付けて説明する。
【0054】
図11に、ブロックDからブロックRへの写像における固定点(黒丸)fと、不変集合(矢印のついた線)を示す。不変集合とは、この写像の前後で変化しない集合のことである。例えば、不変集合(この例では線)51上の点に写像を施しても、該写像は必ず不変集合51上のいずれかにある。図中の矢印は、写像によって点が移動する向きを示している。
【0055】
そして、図11に示すような不変集合の図形は、当該写像によって変化しない。また、図11に示すような不変集合の任意部分を組み合わせて得られる図形も、当該写像によって変化しない。例えば、図11に示される直線の中から幾本かを選んで構成した図形も写像によって変化しない。ここで、かかる構成図形をコーナーとした場合、その頂点は写像における固定点fと一致する。
【0056】
従って、仮に図10(b)に示したブロックDを縮小したものがブロックRと全く同じ画像データである場合、被写体の輪郭線はこの写像の不変集合に含まれ、なおかつ、コーナーの頂点qは固定点fに一致する。
【0057】
写像が例えばアフィン変換、すなわち、
x_new=a×x_old+b×y_old+e,
y_new=c×x_old+d×y_old+f,
但し、
(x_new,y_new):写像後の横座標と縦座標、
(x_old,y_old):写像前の横座標と縦座標、
a,b,c,d,e,f:変換係数
で表される場合、固定点の座標(x_fix,y_fix)は、
x_new=x_old,y_new=y_oldから、
x_fix={(d-1)×e - b×f}/{b×c - (a-1)×(d-1)}
y_fix={(a-1)×f - c×e}/{b×c - (a-1)×(d-1)}
として求めることができる。
【0058】
図9の例は、a=d<1,b=c=0の場合であり、aとbは、予め例えば1/2などに固定しておく。ここで、相似ブロックの探索は、eとfの値を変化させながら、該eとfの値によって仮に決まるブロックDの画素値をサンプリングし、そのサンプリングした画像データとブロックRの画像データとの誤差を求め、その誤差が小さくなるeとfの値の組を決定することにより行う。
【0059】
なお、上記アフィン変換は、ブロックDからブロックRへの写像として説明した。ブロックDの各画素の座標をブロックRの座標から求めるときには、このアフィン変換の逆変換を用いればよい。
【0060】
ブロックRとブロックDの縦横比が等しい場合に、特徴点を検出可能な被写体の複数の輪郭パターンの例を図12に示す。写像の固定点として同図の白丸が求まる。これらはコーナーの頂点と一致している。このように、ブロックRとブロックDの縦横比が等しい場合には、任意の角度のコーナーの頂点を検出可能である。
【0061】
なお、図13に示すように、原理的には、ブロックDはブロックRより小さくても構わない。この場合の固定点の周囲の様子を図14に示す。不変集合上の点は放射状に、外側に向かって移動するが、不変集合の全体形状は図11と同じである。したがって、この場合に検出可能な特徴点(コーナーの頂点)は、やはり図12に示すものと同様となる。このことから、本手法においては不変集合の形状そのものが重要である。不変集合上を移動する点の向きは、特徴点の検出能にはそれほど影響を及ぼさない。つまり、写像の向きはあまり重要ではない。
【0062】
以上の説明では、ブロックDからブロックRへの写像を仮定したが、これとは逆のブロックRからブロックDへの写像においても、固定点は同じである。この場合の特徴点の検出手順を以下に説明する。
【0063】
ここでは、前述のアフィン変換の係数を、a=d>1,b=c=0とする。
【0064】
図15乃至図20に、ブロックRとブロックDの縦横比が異なる例を示す。図15は、ブロックDが縦長の例である。この場合、不変集合は図16のようになる。
【0065】
図16から分かるように、黒丸で示される固定点で交わる水平線と垂直線以外の不変集合(2次曲線)は、この固定点において、水平線と接している。但し、水平線は説明の便宜上、紙面横方向としている。後述する垂直線は紙面縦方向とする。
【0066】
したがって、図17に示すように、U字型の輪郭の頂点や、水平線と垂直線で形成される直角のコーナーを検出できる。図17は代表的な例だけを示す。実際には、図16に示した不変集合の任意の組み合わせで形成される図形上の特徴点を検出できる。例えば、図17に示したU字とは曲率が異なる輪郭線や、逆U字型の輪郭、L字型の輪郭などが検出対象となる。この場合のアフィン変換の係数は、d<a<1,b=c=0である。
【0067】
他方、ブロックDが横長の例を図18に示す。ブロックDを横長とした場合、図19に示すように不変集合は固定点において垂直線と接するようになる。そして、検出可能な形状は図20のようになる。尚、この場合のアフィン変換の係数は、a<d<1,b=c=0である。
【0068】
次に、ブロックDの高さがブロックRよりも高く、ブロックDの幅がブロックRよりも短い例を図21に示す。この場合の不変集合は図22のようになる。したがって、これにより検出可能な形状は、図23のように、水平線と垂直線とによって形成される直角と、その頂点が鈍ったものとなる。この例では、直角以外(例えば45度の角など)のコーナーは検出対象とはならない。
【0069】
建物、窓枠、自動車などの人工物には直角の形状部分が多いが、これらのみを確実に検出したいような場合には、この図21のようにブロックを設定するとよい。直角以外のコーナーの誤検出を回避できる。
【0070】
画像を撮影する際に解像度が不十分であると、直角の先端が鈍ることがあるが、本例によれば、このように鈍った直角でも検出できることが有用である。尚、この場合のアフィン変換の係数は、d<1<a,b=c=0である。
【0071】
図24は、図21においてブロックDを横方向に歪ませた例(斜方形)を示している。この場合の不変集合と検出可能な形状の例を、それぞれ図25および図26に示す。本例によれば、直角とは異なる角度のコーナーを検出できるようになる。これは、予め角度が分かっているコーナーを検出する場合に有効である。
【0072】
例えば、予め傾きが与えられる2本の直線からなるコーナーにおいて特徴点を検出したいときのアフィン変換の係数a,b,c,dの決め方を説明する。この場合の変換式は次の、
x_new=a×x_old+b×y_old,
y_new=c×x_old+d×y_old,
を考えれば十分である。
【0073】
図27に示すように、原点で交わる2本の直線(図では、傾きが2の直線とx軸(傾きはゼロ))を考え、それぞれの直線上に2点ずつ点K(Kx,Ky),点L(Lx,Ly)と、点M(Mx,My),点N(Nx,Ny)を配置する。そして、写像によってK点からL点に、M点からN点に写るとすると、上記変換式は以下のようになる。すなわち、
Lx=a×Kx+b×Ky,
Ly=c×Kx+d×Ky,
Nx=a×Mx+b×My,
Ny=c×Mx+d×My
この連立方程式を解くことにより、アフィン変換の係数a,b,c,dを求める。図27では、K(2,4),L(1,2),M(1,0),N(2,0)であることから、a=2,b=−3/4,c=0,d=1/2が求まる。
【0074】
図28は、ブロックDをブロックRに対して相対的に傾斜させた例を示している。この場合、不変集合は図29のようになり、図30に示すように渦巻き型の輪郭の頂点を検出できる。
【0075】
また図31は、ブロックDをブロックRに対して相対的に傾斜させ、かつブロックRと同じ大きさにした例である。この場合の不変集合は、図32に示すように、固定点を中心とする任意の円となる。従って、図33に示したように、円の中心が固定点として検出される。
【0076】
図34は、ブロックDの高さをブロックRと等しくし、かつ、幅を長くした例を示す。この場合の不変集合は、図35に示すように、1本の垂直線と任意の水平線となる。本例では、図36に示すように画像の縦方向の境界線を検出できる。
【0077】
以上述べた第5実施形態によれば、処理対象の入力画像から、被写体の形状をなす点集合内の一点を該形状の特徴を表す特徴点として検出するにあたって、被写体の少なくとも一部分を含む矩形からなる注目領域(ブロックR)を入力画像上に配置し、この注目領域と相似の関係にある相似領域(ブロックD)を、被写体の少なくとも一部分の画素データを用いる演算により探索する。相似領域から注目領域への写像、又は注目領域から相似領域への写像を計算し、この写像における固定点を特徴点として検出する。
【0078】
このように矩形のブロック単位の相似関係を用いることで、コーナーの頂点などの様々な特徴点を検出できる。
【0079】
なお、本発明は、特徴点検出の対象とする画像を、物理的な被写体を電子的に撮像して得た画像に限定するものではない。例えば、特徴点を識別するための情報が不明である場合、コンピュータ上で人工的に作成したグラフィック(図形)等の画像を対象としても本発明は有用である。この例においては、当該グラフィックを被写体として扱う。
【0080】
(第6の実施形態)
第5の実施形態で説明したコーナー検出方法は、輪郭線の抽出に応用することができる。以下、本発明の第6の実施形態として、第5の実施形態のコーナー検出を用いた輪郭線の抽出方法について、図37及び図38を用いて説明する。図37は本実施形態における輪郭線抽出のための画像処理の流れを示すフローチャートであり、図38は図37の各ステップでの処理の内容を具体的に示している。
【0081】
先ず、例えば図38(a)に示すように、予め与えられた概略形状に沿って複数の制御点(黒丸で示す)を例えば一定の間隔で配置する(ステップS41)。次に、図38(b)に示すように、各制御点を中心に初期ブロックW1を配置する(ステップS42)。
【0082】
次に、図38(c)に示す相似ブロックW2の探索(ステップS43)及び図38(d)に示すコーナー検出(ステップS44)を順次行う。さらに、図38(e)に示すように、検出したコーナーの位置に制御点を移動する(ステップS45)。
【0083】
この手法によると、初期ブロックW1内にコーナーが存在しない場合でも、輪郭線上の点が交点として求まるので、制御点は図38(e)のように輪郭の上に移動する。従って、移動された制御点を図38(f)に示すように線分で結ぶか、あるいはスプライン曲線で結ぶことにより、輪郭線を抽出することができる(ステップS46)。
【0084】
前述したスネイク法でも、上記のように制御点を配置し、あるエネルギー関数が小さくなるように制御点を移動させることで輪郭線を抽出できる。しかし、そのエネルギー関数は、制御点が一直線に並ぶほど小さな値になる(輪郭線を滑らかに保とうとする)ので、被写体のコーナー部分についてはあまり正確に抽出できない。そこで、例えば、はじめにスネイク法で輪郭線の抽出を行い、その結果を概略形状として前述のコーナー検出を用いれば、コーナー部分の抽出精度を向上できる。
【0085】
被写体の形状が三角形や四角形といった多角形であることが既知である場合には、手動操作で多角形の頂点の近傍の点だけを入力するようにし、それらの頂点を線分でつなげることで被写体の輪郭を表す方法がある。手動操作は、例えば、パソコンのディスプレイに表示された被写体の画像上で、頂点の位置をマウス等でクリック操作により指定する操作を含む。その際に、正確な頂点の位置を指定するにはある程度の高い集中力と、慣れが必要である。そこで、図39に示すように、マウスでは頂点のおよその位置1,2,3を指定し、その点1,2,3にブロックW1を配置して前述したコーナー検出を行い、検出された位置4,5,6に頂点を移動するようにする。これにより作業量を大幅に削減できる。
【0086】
本実施形態によるコーナー検出方法では、初期ブロックW1が大きくなると、完全に相似な領域を探すのが困難になるため、相似ブロックW2の位置がずれ、検出されるコーナー位置もずれて検出される。しかし、初期ブロックW1がある程度大きくないと、この中に被写体の輪郭線が含まれずに、相似ブロックW2を探すことができない。
【0087】
そこで、初期ブロックのサイズを大きく設定して、コーナーに近い位置を検出し、更にその位置にサイズの小さなブロックを配置してコーナー位置を検出するというように、ブロックサイズを変更してゆく。これによって、概略形状と正しい輪郭線が離れている場合でも、正しく輪郭線を抽出することが可能になる。
【0088】
さらに、このコーナー検出方法では、初期ブロックW1に相似な相似ブロックW2を求める際、ブロックマッチング法によってそれぞれのブロックW1,W2内の輝度の誤差が最小になる相似ブロックW2を探索するのであるが、被写体輪郭線の形やその付近の輝度のパターンによっては、相似な領域が存在しない場合もある。そこで、ブロックマッチングでの輝度の誤差を相似ブロック探索での信頼性評価値として利用して、信頼性が高い場合はコーナー検出法で制御点を移動し、信頼性が低い場合はエネルギー関数を最小化するスネイク法で制御点を動かすというように、制御点移動方法を切り換える。これによって、被写体輪郭線の部分部分に応じて有効な輪郭線抽出法を選択することができ、より精度よく被写体輪郭線を抽出することができる。
【0089】
上述した本発明に基づく画像処理は、コンピュータを用いてソフトウェアにより実行することが可能である。従って、本発明によれば以下に挙げるようなプログラムを格納したコンピュータ読み取り可能な記録媒体、あるいはプログラムを提供することができる。
【0090】
(1)処理対象の入力画像から特徴量を抽出する第1の特徴量抽出処理と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出処理と、抽出された前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較処理とをコンピュータに実行させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体。
【0091】
(2)処理対象の入力画像から特徴量を抽出する第1の特徴量抽出処理と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出処理と、抽出された前記入力画像の特徴量と前記参照画像の特徴量の相対的な位置ずれを算出する位置ずれ算出処理と、算出された位置ずれに基づいて前記抽出された前記入力画像の特徴量及び前記参照画像の特徴量の相対位置を補正する位置補正処理と、前記相対位置が補正された後の前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較処理とをコンピュータに実行させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体。
【0092】
(3)処理対象の入力画像から特徴量を抽出する第1の特徴量抽出処理と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出処理と、抽出された前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較処理とをコンピュータに実行させるためのプログラム。
【0093】
(4)処理対象の入力画像から特徴量を抽出する第1の特徴量抽出処理と、前記入力画像に対応して予め定められた参照画像から特徴量を抽出する第2の特徴量抽出処理と、抽出された前記入力画像の特徴量と前記参照画像の特徴量の位置ずれを算出する位置ずれ算出処理と、算出された位置ずれに基づいて前記抽出された前記入力画像の特徴量及び前記参照画像の特徴量の相対位置を補正する位置補正処理と、前記相対位置が補正された後の前記入力画像の特徴量と前記参照画像の特徴量とを比較する比較処理とをコンピュータに実行させるためのプログラム。
【0094】
(5)入力画像中の被写体付近に初期ブロックを配置する初期ブロック配置処理と、前記初期ブロックに相似な相似ブロックを前記入力画像内で探索する相似ブロック探索処理と、前記初期ブロックの各頂点と前記相似ブロックの各頂点とを結んだ複数の直線の交点を前記被写体のコーナーとして検出するコーナー検出処理とをコンピュータに実行させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体。
【0095】
(6)入力画像中の被写体付近に初期ブロックを配置する初期ブロック配置処理と、前記初期ブロックに相似な相似ブロックを前記入力画像内で探索する相似ブロック探索処理と、前記初期ブロックの各頂点と前記相似ブロックの各頂点とを結んだ複数の直線の交点を前記被写体のコーナーとして検出するコーナー検出処理とをコンピュータに実行させるためのプログラム。
【0096】
【発明の効果】
以上説明したように、本発明の画像処理方法によれば、入力画像上の背景領域での明度変化や入力画像全体への手ぶれによる影響等によらず、適切に被写体変化を検出できる。
【0097】
また、本発明によればコントラストがはっきりせず、またスポット状のノイズがある場合でも、入力画像から正しくコーナーを検出することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図
【図2】同第1実施形態に係る画像処理の手順を示すフローチャート
【図3】同第1の実施形態の作用を説明するための入力画像及び参照画像からそれぞれ抽出された輪郭線とその比較結果を示す図
【図4】同第1の実施形態における参照画像の輪郭線を概略形状として入力画像の輪郭線を求める手順を示す図
【図5】本発明の第2の実施形態の作用を説明するための入力画像及び参照画像から抽出されたコーナー位置とその比較結果を示す図
【図6】本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図
【図7】同第3実施形態に係る画像処理の手順を示すフローチャート
【図8】本発明の第5実施形態に係り、画像中のコーナーの頂点などの特徴点を検出する処理の概略手順を示すフローチャート
【図9】互いに相似な正方形ブロックの配置例を示す図
【図10】推定配置したブロック及びその相似ブロックと被写体画像との関係を示す図
【図11】図9のブロックから導出される不変集合の一例を示す図
【図12】図9のブロックを用いた場合のコーナー部分における頂点の検出例を示す図
【図13】互いに相似な正方形のブロックの他の例を示す図
【図14】図13のブロックから導出される不変集合の一例を示す図
【図15】縦横比が異なる相似ブロックの一例を示す図
【図16】図15の相似ブロックから導出される不変集合の一例を示す図
【図17】図15のブロックを用いた場合のコーナー部分における頂点の検出例を示す図
【図18】縦横比が異なる相似ブロックの一例を示す図
【図19】図18のブロックから導出される不変集合の一例を示す図
【図20】図18のブロックを用いた場合のコーナー部分における頂点の検出例を示す図
【図21】薄幅で長身の相似ブロックの一例を示す図
【図22】図21の相似ブロックから導出される不変集合の一例を示す図
【図23】図21の相似ブロックを用いた場合のコーナー部分における頂点の検出例を示す図
【図24】横方向に歪んだ相似ブロックの一例を示す図
【図25】図24の相似ブロックから導出される不変集合の一例を示す図
【図26】図24の相似ブロックを用いた場合のコーナー部分における頂点の検出例を示す図
【図27】傾きが既知の2直線間での写像を示す図であって、変換係数の決定手順を説明するための図
【図28】傾斜相似ブロックの一例を示す図
【図29】図28の傾斜相似ブロックから導出される不変集合の一例を示す図
【図30】図28の傾斜相似ブロックを用いた場合の特徴点(円の中心)の検出例を示す図
【図31】等倍の大きさの傾斜相似ブロックの一例を示す図
【図32】図31の相似ブロックから導出される不変集合の一例を示す図
【図33】図31の相似ブロックを用いた場合のコーナー部分における頂点の検出例を示す図
【図34】同一高さで幅広の相似ブロックの一例を示す図
【図35】図34の相似ブロックから導出される不変集合の一例を示す図
【図36】図34の傾斜相似ブロックを用いた場合の直線検出例を示す図
【図37】本発明の第6の実施形態に係る輪郭線を用いたコーナー検出の処理手順を示すフローチャート
【図38】同第6の実施形態における図37の各ステップでの処理を具体的に説明するための図
【図39】本発明の第6実施形態に係り位置指定支援方法を説明するための図
【図40】従来の技術である背景差分法について説明するための入力画像及び参照画像とその比較結果を示す図
【符号の説明】
1…画像入力部
2…入力画像特徴量抽出部
3…参照画像蓄積部
4…参照画像特徴量抽出部
5…特徴量比較部
6…画像出力部
7…参照画像特徴量蓄積部
8…位置ずれ算出部
9…位置補正部

Claims (11)

  1. 処理対象の入力画像から、被写体の形状をなす点集合内の一点を該形状の特徴を表す特徴点として検出する画像特徴点検出方法において、
    前記被写体の少なくとも一部分を含む矩形からなる注目領域を前記入力画像上に配置するステップと、
    前記注目領域との輝度の誤差が最小となり、該注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いるブロックマッチングにより探索する探索ステップと、
    前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算するステップと、
    前記ブロックマッチングでの輝度の誤差の値を信頼性評価値とし、該信頼性評価値に基づく判定により信頼性が高いと判定されたならば、前記写像における固定点を前記特徴点として検出するステップとを有することを特徴とする画像特徴点検出方法。
  2. 前記探索ステップは、前記注目領域と同一縦横比の前記相似領域を探索するステップを含むことを特徴とする請求項1記載の画像特徴点検出方法。
  3. 前記探索ステップは、該注目領域と異なる縦横比の前記相似領域を探索するステップを含むことを特徴とする請求項1記載の画像特徴点検出方法。
  4. 前記探索ステップは、前記注目領域よりも幅が長く、かつ、高さが短い前記相似領域を探索するステップを含むことを特徴とする請求項1に記載の画像特徴点検出方法。
  5. 前記探索ステップは、前記注目領域よりも幅が短く、かつ、高さが長い前記相似領域を探索するステップを含むことを特徴とする請求項1に記載の画像特徴点検出方法。
  6. 前記探索ステップは、斜方形からなる前記相似領域を探索するステップを含むことを特徴とする請求項1に記載の画像特徴点検出方法。
  7. 前記探索ステップは、前記注目領域に対して相対的に傾斜する前記相似領域を探索するステップを含むことを特徴とする請求項1に記載の画像特徴点検出方法。
  8. 前記探索ステップは、前記注目領域に対して相対的に傾斜し、かつ同じ大きさの前記相似領域を探索するステップを含むことを特徴とする請求項1に記載の画像特徴点検出方法。
  9. 前記探索ステップは、前記注目領域と高さが等しく、且つ相対的に幅が異なる前記相似領域を探索するステップを含むことを特徴とする請求項1に記載の画像特徴点検出方法。
  10. 処理対象の入力画像から、被写体の形状をなす点集合内の一点を該形状の特徴を表す特徴点として検出するプログラムであって、
    前記被写体の少なくとも一部分を含む矩形からなる注目領域を前記入力画像上に配置する配置手順と、
    前記注目領域との輝度の誤差が最小となり、該注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いるブロックマッチングにより探索する探索手順と、
    前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算する計算手順と、
    前記ブロックマッチングでの輝度の誤差の値を信頼性評価値とし、該信頼性評価値に基 づく判定により信頼性が高いと判定されたならば、前記写像における固定点を前記特徴点として検出する検出手順とをコンピュータに実行させるプログラム。
  11. 処理対象の入力画像から被写体のコーナーを表す特徴量を抽出する第1の特徴量抽出ステップと、
    前記入力画像に対応して予め定められた参照画像から前記被写体のコーナーを表す特徴量を抽出する第2の特徴量抽出ステップと、
    抽出された前記入力画像の特徴量と前記参照画像の特徴量とを比較することにより、前記入力画像中に存在する被写体の変化を検出する比較ステップとを有し、
    前記第1の特徴量抽出ステップ及び前記第2の特徴量抽出ステップのそれぞれは、
    前記被写体の少なくとも一部分を含む矩形からなる注目領域を前記入力画像又は前記参照画像上に配置するステップと、
    前記注目領域との輝度の誤差が最小となり、該注目領域と相似の関係にある相似領域を、前記被写体の少なくとも一部分の画素データを用いるブロックマッチングにより探索する探索ステップと、
    前記相似領域から前記注目領域への写像、又は前記注目領域から前記相似領域への写像を計算するステップと、
    前記ブロックマッチングでの輝度の誤差の値を信頼性評価値とし、該信頼性評価値に基づく判定により信頼性が高いと判定されたならば、前記写像における固定点を前記被写体のコーナーを表す特徴量として検出するステップとを有することを特徴とする画像処理方法。
JP2001303409A 2000-10-31 2001-09-28 画像特徴点検出方法、画像処理方法、及びプログラム Expired - Fee Related JP3764364B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001303409A JP3764364B2 (ja) 2000-10-31 2001-09-28 画像特徴点検出方法、画像処理方法、及びプログラム
US09/984,688 US20020051572A1 (en) 2000-10-31 2001-10-31 Device, method, and computer-readable medium for detecting changes in objects in images and their features
US11/311,483 US20060188160A1 (en) 2000-10-31 2005-12-20 Device, method, and computer-readable medium for detecting changes in objects in images and their features

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-333211 2000-10-31
JP2000333211 2000-10-31
JP2001303409A JP3764364B2 (ja) 2000-10-31 2001-09-28 画像特徴点検出方法、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2002203243A JP2002203243A (ja) 2002-07-19
JP3764364B2 true JP3764364B2 (ja) 2006-04-05

Family

ID=26603184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001303409A Expired - Fee Related JP3764364B2 (ja) 2000-10-31 2001-09-28 画像特徴点検出方法、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US20020051572A1 (ja)
JP (1) JP3764364B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230024185A1 (en) * 2021-07-19 2023-01-26 Microsoft Technology Licensing, Llc Spiral feature search

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7532768B2 (en) * 2003-11-04 2009-05-12 Canon Kabushiki Kaisha Method of estimating an affine relation between images
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
JP4521235B2 (ja) * 2004-08-25 2010-08-11 日立ソフトウエアエンジニアリング株式会社 撮影画像の変化抽出装置及び方法
JP2006260401A (ja) * 2005-03-18 2006-09-28 Toshiba Corp 画像処理装置、方法、およびプログラム
JP4680026B2 (ja) * 2005-10-20 2011-05-11 株式会社日立ソリューションズ 画像間変化抽出支援システム及び方法
TWI326187B (en) * 2006-02-22 2010-06-11 Huper Lab Co Ltd Method of multidirectional block matching computing
JP4818053B2 (ja) * 2006-10-10 2011-11-16 株式会社東芝 高解像度化装置および方法
JP4334559B2 (ja) 2006-10-13 2009-09-30 株式会社東芝 スクロール位置予測装置
KR101271092B1 (ko) * 2007-05-23 2013-06-04 연세대학교 산학협력단 감시 카메라 시스템에서 움직임을 검출하기 위한 실시간움직임 영역 분할 방법 및 장치
JP2009060486A (ja) * 2007-09-03 2009-03-19 Seiko Epson Corp 画像処理装置およびこれを備えるプリンタ、画像処理方法
JP4908440B2 (ja) 2008-03-06 2012-04-04 株式会社東芝 画像処理装置及び方法
JP5166230B2 (ja) * 2008-12-26 2013-03-21 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5709410B2 (ja) 2009-06-16 2015-04-30 キヤノン株式会社 パターン処理装置及びその方法、プログラム
EP2671374B1 (en) * 2011-01-31 2015-07-22 Dolby Laboratories Licensing Corporation Systems and methods for restoring color and non-color related integrity in an image
JP2012203458A (ja) * 2011-03-23 2012-10-22 Fuji Xerox Co Ltd 画像処理装置及びプログラム
KR101657524B1 (ko) * 2012-01-11 2016-09-19 한화테크윈 주식회사 영상 조정기와 조정 방법 및 이를 구비하는 영상 안정화 장치
CN103544691B (zh) * 2012-07-19 2018-07-06 苏州比特速浪电子科技有限公司 图像处理方法及设备
CN103714337A (zh) * 2012-10-09 2014-04-09 鸿富锦精密工业(深圳)有限公司 物体特征识别系统及方法
JP6183305B2 (ja) * 2014-07-02 2017-08-23 株式会社デンソー 故障検出装置および故障検出プログラム
JP6880618B2 (ja) * 2016-09-26 2021-06-02 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP6930091B2 (ja) * 2016-11-15 2021-09-01 富士フイルムビジネスイノベーション株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US11048163B2 (en) * 2017-11-07 2021-06-29 Taiwan Semiconductor Manufacturing Company, Ltd. Inspection method of a photomask and an inspection system
CN109344742B (zh) * 2018-09-14 2021-03-16 腾讯科技(深圳)有限公司 特征点定位方法、装置、存储介质和计算机设备
CN111626082A (zh) * 2019-02-28 2020-09-04 佳能株式会社 检测装置和方法及图像处理装置和系统
US11238282B2 (en) 2019-06-07 2022-02-01 Pictometry International Corp. Systems and methods for automated detection of changes in extent of structures using imagery
CA3149080A1 (en) 2019-09-20 2021-03-25 Shadrian Strong Roof condition assessment using machine learning
CN111104930B (zh) * 2019-12-31 2023-07-11 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3621326A (en) * 1968-09-30 1971-11-16 Itek Corp Transformation system
JPH0679325B2 (ja) * 1985-10-11 1994-10-05 株式会社日立製作所 位置姿勢判定方法
CA1318977C (en) * 1987-07-22 1993-06-08 Kazuhito Hori Image recognition system
JP2856229B2 (ja) * 1991-09-18 1999-02-10 財団法人ニューメディア開発協会 画像切り出し箇所検出方法
GB2267203B (en) * 1992-05-15 1997-03-19 Fujitsu Ltd Three-dimensional graphics drawing apparatus, and a memory apparatus to be used in texture mapping
US5687249A (en) * 1993-09-06 1997-11-11 Nippon Telephone And Telegraph Method and apparatus for extracting features of moving objects
JP3030485B2 (ja) * 1994-03-17 2000-04-10 富士通株式会社 3次元形状抽出方法及び装置
US6055335A (en) * 1994-09-14 2000-04-25 Kabushiki Kaisha Toshiba Method and apparatus for image representation and/or reorientation
EP0774730B1 (en) * 1995-11-01 2005-08-24 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
US5917940A (en) * 1996-01-23 1999-06-29 Nec Corporation Three dimensional reference image segmenting method and device and object discrimination system
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
JP4392886B2 (ja) * 1999-01-22 2010-01-06 キヤノン株式会社 画像抽出方法及び装置
US6249590B1 (en) * 1999-02-01 2001-06-19 Eastman Kodak Company Method for automatically locating image pattern in digital images
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6707932B1 (en) * 2000-06-30 2004-03-16 Siemens Corporate Research, Inc. Method for identifying graphical objects in large engineering drawings
JP3802322B2 (ja) * 2000-07-26 2006-07-26 株式会社東芝 動画像内オブジェクト抽出方法及び装置
US6738517B2 (en) * 2000-12-19 2004-05-18 Xerox Corporation Document image segmentation using loose gray scale template matching
US7146048B2 (en) * 2001-08-13 2006-12-05 International Business Machines Corporation Representation of shapes for similarity measuring and indexing
JP3782368B2 (ja) * 2002-03-29 2006-06-07 株式会社東芝 物体画像切り出し方法及びプログラム並びに物体画像切り出し装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230024185A1 (en) * 2021-07-19 2023-01-26 Microsoft Technology Licensing, Llc Spiral feature search
US11682189B2 (en) * 2021-07-19 2023-06-20 Microsoft Technology Licensing, Llc Spiral feature search

Also Published As

Publication number Publication date
US20020051572A1 (en) 2002-05-02
JP2002203243A (ja) 2002-07-19
US20060188160A1 (en) 2006-08-24

Similar Documents

Publication Publication Date Title
JP3764364B2 (ja) 画像特徴点検出方法、画像処理方法、及びプログラム
JP5699788B2 (ja) スクリーン領域検知方法及びシステム
US8019164B2 (en) Apparatus, method and program product for matching with a template
CN111263142B (zh) 一种摄像模组光学防抖的测试方法、装置、设备及介质
JP7191823B2 (ja) 画像から変状を検知する画像処理装置、画像処理方法及びプログラム
WO2012172817A1 (en) Image stabilization apparatus, image stabilization method, and document
CN106296587B (zh) 轮胎模具图像的拼接方法
JP2011182397A (ja) ずれ量算出方法およびずれ量算出装置
JP2018092354A (ja) 物体検出装置および物体検出方法
JP3812770B2 (ja) 手ぶれパラメータ検出方法及び情報記録媒体
CN113375555A (zh) 一种基于手机影像的电力线夹测量方法及系统
JP5449980B2 (ja) 動き補正装置およびその方法
CN108492306A (zh) 一种基于图像轮廓的x型角点提取方法
CN112884694B (zh) 一种平面显示面板的缺陷检测方法、装置、设备及介质
CN113409334A (zh) 一种基于质心的结构光角点检测方法
JP5160366B2 (ja) 電子部品のパターンマッチング方法
JP2008077489A (ja) 画像処理装置、方法、プログラムおよび記憶媒体
JP2010243209A (ja) 欠陥検査方法および欠陥検出装置
JPH065545B2 (ja) 図形認識装置
CN118840370B (zh) 一种机器视觉的线缆缺陷识别方法和系统
CN114897966B (zh) 一种大元件的视觉识别方法
JP2008287338A (ja) 画像処理装置
JP2004343737A (ja) 画像補正方法、プログラム及び装置
JP2010243242A (ja) 欠陥検出方法および欠陥検出装置
CN116630164B (zh) 海量显微图像的实时拼接方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees