JP4743277B2 - Image data recognition method, image processing apparatus, and image data recognition program - Google Patents
Image data recognition method, image processing apparatus, and image data recognition program Download PDFInfo
- Publication number
- JP4743277B2 JP4743277B2 JP2008529068A JP2008529068A JP4743277B2 JP 4743277 B2 JP4743277 B2 JP 4743277B2 JP 2008529068 A JP2008529068 A JP 2008529068A JP 2008529068 A JP2008529068 A JP 2008529068A JP 4743277 B2 JP4743277 B2 JP 4743277B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- vehicle
- pixel
- pixels
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像データ認識に関する。特に、画像データ内の被写体を検出する画像データ認識方法に関する。 The present invention relates to image data recognition. In particular, the present invention relates to an image data recognition method for detecting a subject in image data.
交通に関するシステムにおいて、固定されたカメラにより取得した画像データおよび移動体に搭載したカメラにより取得した画像データから車両や歩行者を検出する技術がある。車両や歩行者を検出する技術は、例えば、交差点の画像データを取得し、交差点内の車両を検出し、検出された車両や歩行者の存在を走行中の車両に提示することに利用される。車両や歩行者の存在を走行中の車両に提示することにより、車両の運転者は交差点内の状況を未然に知ることができる。 In a system related to traffic, there is a technique for detecting a vehicle or a pedestrian from image data acquired by a fixed camera and image data acquired by a camera mounted on a moving body. A technique for detecting a vehicle or a pedestrian is used, for example, to acquire image data of an intersection, detect a vehicle in the intersection, and present the detected vehicle or pedestrian to a traveling vehicle. . By presenting the presence of the vehicle or the pedestrian to the traveling vehicle, the driver of the vehicle can know the situation in the intersection in advance.
画像データ内の検出の対象となる車両を抽出する方式は、背景差分方式、エッジ検出方式等がある。背景差分方式は、対象物が無い背景の画像データを予め取得しておき、抽出の対象となる画像データと比較することにより、画像データ内の対象物を抽出する方式である。エッジ検出方式は、画像データ内のエッジを検出し、予め格納されたエッジデータによる雛型データと検出したエッジデータとを比較し、対象の車両を特定する方式である。 As a method for extracting a vehicle to be detected in image data, there are a background difference method, an edge detection method, and the like. The background difference method is a method of extracting a target object in image data by acquiring in advance background image data without the target object and comparing it with image data to be extracted. The edge detection method is a method of detecting an edge in image data, comparing template data based on edge data stored in advance with detected edge data, and specifying a target vehicle.
背景差分方式は、車両の影等を含む領域を検出することとなるため、画像データ内の車両のみの位置を正確に検出することができない問題があった(特許文献1)。また、エッジ検出方式も影を検出する。また、エッジ検出された部分の形状データと予め所持する物体の形状のデータベースに格納された形状データとの比較を行って物体を特定するため、検出処理に時間を要する問題があった(特許文献2)。
(発明が解決しようとする課題)
本発明は、輝度の影響を受けずにかつ計算量が少なく画像データ内の被写体を検出する画像データ認識方法を提供することを課題とする。
(課題を解決するための手段)
本発明は、上記の問題を解決する画像データ内の被写体を検出する方法を提供するために以下の構成を有する。まず、第一の画素と該第一の画素を中心とする第一の領域と前記第一の画素と比較の対象とする複数の第二の画素と該複数の第二の画素をそれぞれ中心とする複数の第二の領域とを定める。次に第一の領域とそれぞれの第二の領域とから算出した類似値をそれぞれの第二の画素に対応付ける。次に複数の第二の画素に対応付けられた類似値の内の第一の領域の特徴を示す類似値を第一の画素に対応付ける。次に第一の領域の特徴を示す類似値の分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出する。(Problems to be solved by the invention)
It is an object of the present invention to provide an image data recognition method that detects a subject in image data without being affected by luminance and having a small amount of calculation.
(Means for solving the problem)
The present invention has the following configuration in order to provide a method for detecting a subject in image data that solves the above problems. First, the first pixel, the first region centered on the first pixel, the plurality of second pixels to be compared with the first pixel, and the plurality of second pixels, respectively. A plurality of second regions to be defined. Next, the similarity value calculated from the first region and each second region is associated with each second pixel. Next, a similarity value indicating a feature of the first region among the similarity values associated with the plurality of second pixels is associated with the first pixel. Next, an area where the shape determined according to the distribution state of the similarity value indicating the characteristics of the first area matches the shape previously determined as the characteristics of the object is detected as a portion of the object in the image data.
また、画像データの撮影対象領域である三次元空間での手前となる領域は大きく、三次元空間での奥となる領域を小さくする。この構成により演算量を減少させることが可能となる。 In addition, a region in front of the three-dimensional space, which is the imaging target region of the image data, is large, and a region behind the three-dimensional space is reduced. With this configuration, it is possible to reduce the amount of calculation.
また、被写体の特徴として定めた形状は、車両の形状を定める条件であることを特長とする。 Further, the shape defined as the feature of the subject is a condition that determines the shape of the vehicle.
また、検出範囲の両側に大きい類似値が分布し、かつ、両側の類似値に対象性があり、かつ、検出範囲の下には小さい類似値が分布する座標を前記車両のフロントの最下部の座標とすることを特長とする。 In addition, the coordinates at which the large similarity values are distributed on both sides of the detection range, the similarity values on both sides are symmetric, and the small similarity values are distributed below the detection range are displayed at the bottom of the front of the vehicle. It is characterized by the coordinates.
また、車両は、車両の類似値の分布の対象性から画像データ内の横方向の車両の中心位置を求め、車両の分布の形状と車両の形状を定める条件から縦軸方向の位置を特定することを特長とする。
(発明の効果)
本発明によれば、画像データ内の画素毎に画素を中心とする領域毎の類似値を検出し、類似値の分布形状が予め定める条件に合致する画像データ内の領域を検出の対象とする。したがって、輝度の影響を受けずにかつ計算量が少なく画像データ内の被写体を検出する事が可能となる。Further, the vehicle obtains the center position of the vehicle in the horizontal direction in the image data from the objectivity of the distribution of similar values of the vehicle, and specifies the position in the vertical axis direction from the conditions for determining the shape of the vehicle distribution and the shape of the vehicle. It is characterized by that.
(The invention's effect)
According to the present invention, for each pixel in the image data, a similarity value for each region centered on the pixel is detected, and a region in the image data whose similarity value distribution shape matches a predetermined condition is detected. . Therefore, it is possible to detect a subject in the image data without being influenced by luminance and with a small amount of calculation.
1 画像処理装置
2 カメラ
3 画像メモリ
4 自己相関差計算部
5 路上マーク削除部
6 パターン特徴量計算部
7 対象性特徴量計算部
8 車両位置判定部
10 画像データ
11 画素
12 消失点
13 縦方向
14 横方向
15 車道
16 車両
17 最も手前における車道と路側帯との境界を示す点
20 データベース
22 軽自動車
23 普通車
24 大型車
31 探索範囲
32 演算領域
33 演算対象画素
35 比較対象画素
34 比較領域
38 類似値
39 差分
41 横断歩道
42 縞模様
43 演算の対象とする座標点
44 所定量Lだけ横方向14に移動した座標
45 所定量(−L/2)だけ横方向14に移動した座標
46 所定量(L/2)だけ横方向14に移動した座標
47 消失点12を向く線分に沿うエッジ
48 水平方向のエッジ
50 分布図
51 車両16の左右に位置する画素群
52 車両16の左右の側面の外側に位置する画素群
53 車両16の前方に位置する画素群
54 画素
55 検出対象画素
56 Eleft
57 Eright
58 Eside
59 Ebottom
60 車両の特徴の大きさを示す値
61 演算中央座標
101 CPU
103 メモリ
104 出力部
105 バスDESCRIPTION OF
57 Eight
58 Eside
59 Ebottom
60 Value indicating size of
103
本実施例は、交差点の固定カメラの画像データから車両を取得する動作について説明する。 In this embodiment, an operation for acquiring a vehicle from image data of a fixed camera at an intersection will be described.
図1は本実施例の画像処理装置1の構成図である。本発明の画像処理装置1は、カメラ2、画像メモリ3、自己相関差計算部4、路上マーク削除部5、パターン特徴量計算部6、対象性特徴量計算部7、車両位置判定部8から構成される。
FIG. 1 is a configuration diagram of an
カメラ2で撮像した交差点の画像データは画像メモリ3に格納される。自己相関差計算部4は、画像メモリ3に格納された画像データから類似値の差分の分布図を作成する。自己相関差計算部4は、画素毎に類似値の差分を求め、類似値の差分による分布図を作成する。路上マーク削除部5は、画像メモリ3に格納された画像データに写る路上マークの領域を削除する。以上から画像処理装置1は、元の画像データから類似値の差分を算出し、路上マークを除去した分布図を得る。次にパターン特徴量計算部6は、自己相関差計算部4で作成した類似値の差分の分布図から車両のパターンを検出する。パターン特徴量計算部6は車両のパターンから車両の最前部あるいは最後部を示す画像データ内の縦方向の座標を取得する。パターン特徴量計算部6は車両パターンを検出する際、路上マーク削除部5で削除した領域情報も加味する。対象性特徴量計算部7は、自己相関差計算部4で作成した類似値の差分の分布図から車両の対象性を演算する。対象性特徴量計算部7は対象性から画像データ内の車両が存在する中心線を取得する。車両位置判定部8は、パターン特徴量計算部6と対象性特徴量計算部7とから特定される画像内の車両の横方向の位置を特定する。また、車両位置判定部8は、車両の位置から定まる車幅を取得し、取得した車幅と画像データ内の縦方向の位置からデータベースを検索して車種を特定する。
The image data of the intersection imaged by the
次に画像処理装置1がカメラ2で取得する画像データについて説明する。図2は本実施例のカメラ2が撮影する画像データ10である。画像データ10は画像メモリ3にディジタル形式で格納される。画像データ10は画素11の集合によって構成される。画素11とは画像データ10を構成する最小単位である。以降の説明において画像データ10の縦方向とは縦方向13の方向を示し、横方向とは横方向14の方向を示す。また、縦座標とは画像データ10内の縦方向13の位置を特定する座標を示し、横座標とは画像データ10内の横方向14の位置を特定する座標を示す。消失点12は、二次元に投影された画像データ10を元の三次元空間で見た場合に最も奥にある座標である。
Next, image data acquired by the
上方から見下ろす場所にカメラ2を設置する場合の画像データ10の消失点12は、一般的に、画像データ10内の縦方向13の上方の位置に配置する。画像データ10内の上方の位置に消失点12を配置することは、画像データ10内の車道15が写る領域を多くすることを可能とする。したがって画像処理装置1は車道15の縦方向13を消失点12が画像データ10内で下方の位置にある場合と比較して多くの縦座標によって分解することが可能となる。縦方向13をより多く分解することが可能となると、画像処理装置1は車道15上の車両16の位置を正確に取得することができる。一方、車両16にカメラ2を搭載する場合は、一般的に、カメラ2は地面に対して水平方向を撮影するように配置される。カメラ2が車両16に取付けられる場合は、カメラ2は車両16のフロント部分等の低い位置に取付けられる。したがって、カメラ2が下方に向けられたアングルの場合、カメラ2は前方を走行する車両16の最高部を撮影することができなくなる。
The vanishing
車道15の幅は画像データ10内の縦方向13の下方の位置で取得すべき車道15の幅となるようにする。このとき、最も手前における車道15と路側帯との境界を示す点17が画像データ10の最下部となる。画像データ10内の下方の位置で車道15の幅が最大となるように配置することによりカメラ2は画像データ10内の手前において車両16の幅を大きく写すことが可能となる。車両16の幅を大きく写すことにより画像処理装置1は車両16の幅より多くの画素で分解することができ、画像処理装置1は車両16の幅の情報を正確に取得することができる。なお、消失点12、車道15の幅についてのカメラ2のアングルは、道路条件、取得すべき対象に応じて変更することが可能である。
The width of the
次に画像処理装置1が有する車両16を検出するためのデータについて説明する。画像処理装置1は画像データ10内の消失点12の座標情報を有する。また、画像処理装置1は最も手前における車道15と路側帯との境界を示す点17の座標を有する。車道15と路側帯との境界を示す点17の座標は道路の両側の2点となる。また、画像処理装置1は消失点12の座標と車道15と路側帯との境界を示す点17の座標とを結ぶ直線から車道15と路側帯との境界の直線を得る。また、画像処理装置1は画像データ10内に存在する車両16の縦方向13の座標と車両16の幅とを車両16の種類毎に関連付けたデータベース20を有する。
Next, data for detecting the vehicle 16 included in the
図3は、画像データ10内に存在する車両16の縦方向13の座標値21と車両16の幅とを車両16の種類毎に関連付けたデータベース20の構成例である。例えば、縦方向13の座標値21が480個の画素11で構成される画像データ10は、縦方向13の480個の座標値21に応じた車両16の幅情報を有する。車両16の横幅は軽自動車22、普通車23、大型車24に応じてほぼ決まる。例えば普通車23の一般的な車両の幅は1700mmである。画像処理装置1は画像データ10内の車両16の縦方向13の座標値21の位置に対応する横方向14の車両16の幅の画素数を予め求めることができる。本実施例のデータベース20は、車両16の幅の情報として縦方向13の座標値21の位置に応じた軽自動車22、普通車23、大型車24等の横方向14の車両16の幅となる画素数とを関係づけて記憶する。
FIG. 3 is a configuration example of the
図2で説明すると、画像データ10内の車道15内の車両16を示す四角形の底辺の長さが車両16の幅となる画素数である。車両16の幅の画素数は四角形が検出される縦方向13の座標に応じて変化する。
Referring to FIG. 2, the length of the base of the quadrilateral indicating the vehicle 16 in the
次に画像処理装置1の自己相関差計算部4が行う類似値の差分の分布図の作成処理について説明する。自己相関差計算部4は、画像メモリ3に格納された画像データ10の各画素11に対応付けられる類似値38の差分39を算出する。類似値38は、画像データ10内に設定した第一の領域と第二の領域とを比較した時の領域全体として近似する程度を数値化したものである。
Next, a process of creating a difference map of similar values performed by the autocorrelation
図4は、取得した画像データ10から自己相関差計算部4が類似値38を検出する概念図である。
FIG. 4 is a conceptual diagram in which the
演算対象画素33(第一の画素)は、演算の現在の対象となる画像データ10内の類似値38を求める画素11である。演算対象画素33は画像データ10内の全ての画素11が対象となる。なお、画像データ10内において車両16が存在し得ない領域に位置する画素11は、類似値38の演算を省略することも可能である。例えば、自己相関差計算部4は路側帯を超え、車両16が明らかに存在しないと想定される範囲にある画素11については演算を省略することが可能である。自己相関差計算部4が演算を省略することが可能な領域は予め設定される。自己相関差計算部4は演算を省略することが可能な領域以外の画素11の全てについて類似値38を算出する。車両16が明らかに存在しないと想定される範囲にある画素について自己相関差計算部4が演算を省略する構成により、画像処理装置1が行う演算量が減少するため、画像処理装置1は演算結果を得るまでの時間を短縮することが可能となる。
The calculation target pixel 33 (first pixel) is a pixel 11 for obtaining the similarity value 38 in the
比較対象画素35(第二の画素)は、演算対象画素33に対する画像データ10内の類似値38を求める演算の現在の対象となる画素11である。
The comparison target pixel 35 (second pixel) is the pixel 11 that is the current target of the calculation for obtaining the similarity value 38 in the
演算領域32(第一の領域)は、演算対象画素33を中心とした類似値38を求める演算の現在の比較の対象となる領域である。比較領域34(第二の領域)は、比較対象画素35を中心とした演算領域32との比較の対象となる領域である。
The calculation area 32 (first area) is an area that is the current comparison target of the calculation for obtaining the similarity value 38 with the
探索範囲31は、演算対象画素33に対して比較対象画素35を設定する範囲である。探索範囲31は演算対象画素33と比較対象画素35との間で画像データ10内の座標間の距離が大きい場合、類似値38を算出する必要がないため設定される。座標間の距離が大きく離れている場合、演算領域32と比較領域34とは一台の車両16を対象としていないと考えられるためである。一方、全く異なる対象物との間で類似値38を算出することは画像データ10内の車両16の誤検出の原因となるためである。例えば、探索範囲31は演算対象画素33を中心として車両16が存在し得る範囲とする。
The
比較対象画素35は探索範囲内31の全ての画素11を対象となる。なお、探索範囲31と画像データ10上において車両16が存在し得ない領域とが重複する場合は、自己相関差計算部4は重複する範囲にある比較対象画素35の類似値38を算出する演算を省略することも可能である。重複する範囲にある比較対象画素35との類似値38を算出する演算を省略する構成にすると画像処理装置1が行う演算量が減少するため、画像処理装置1は演算結果を得るまでの時間が短縮することが可能となる。
The comparison target pixels 35 are all the pixels 11 within the
次に、自己相関差計算部4が行う類似値38の算出方法について説明する。図5は類似値38の算出方法のフローチャートである。自己相関差計算部4は画像データ10内の演算対象画素33毎に以下の手順で類似値38を算出するための演算を行う。自己相関差計算部4は演算対象画素33の座標(x,y)を特定する(S01)。図4の演算対象画素33の座標を(x,y)とする。”x”は画像データ10内の演算対象画素33の横方向14の座標の値である。”y”は画像データ10内の演算対象画素33の縦方向13の座標の値である。演算対象画素33の座標(x,y)の周囲の領域が演算領域32となる。また、演算領域32内の各画素11を(x+i,y+j)とする。”i”は演算対象画素33の座標(x,y)の周囲の領域内の画素11の横方向14の座標を特定する変数である。”j”は演算対象画素33の座標(x,y)の周囲の領域内の画素11の縦方向13の座標を特定する変数である。
Next, a method of calculating the similarity value 38 performed by the autocorrelation
自己相関差計算部4は探索範囲31を特定する(S02)。探索範囲31は予め設定された大きさの値であり、演算対象画素33の座標(x,y)を中心に設定される。
The autocorrelation
自己相関差計算部4は探索範囲31の中の比較対象画素35の座標(x+u,y+v)を特定する(S03)。”u”は探索範囲31内の横方向14の座標を特定するための変数である。”v”は探索範囲31内の縦方向13の座標を特定するための変数である。比較対象画素35の周囲の領域が比較領域34となる。また比較領域34内の各画素を(x+u+i,y+v+j)とする。”i”は比較対象画素(x+u,y+v)の周囲の領域内の画素11の横方向14の座標を特定するための変数である。”j”は比較対象画素(x+u,y+v)の周囲の領域内の画素11の縦方向13の座標を特定するための変数である。
The autocorrelation
次に自己相関差計算部4は演算領域32と比較領域34との間で類似値38を算出する。類似値38を算出する演算は、演算対象画素33の周囲の領域内の各画素11の座標を示す(x+i,y+j)の”i”、”j”と比較対象画素35の周囲の領域内の各画素11の座標を示す(x+u+i,y+v+j)の”i”、”j”の値を変化させてそれぞれの座標に対応する画素毎に比較することにより行う(S04)。
Next, the autocorrelation
例えば、自己相関差計算部4は以下の方法により演算領域32と比較領域34との間の類似値38を算出する。1.演算領域32の画素の輝度と比較領域34の画素の輝度との差分の絶対値の総和から算出する方法SAD(Sum Of Absolute Difference)、2.演算領域32の画素の輝度と比較領域34の画素の輝度と差分の二乗の総和から算出する方法SSD(Sum Of Square Difference)、および3.正規化により算出する方法NCOR(Normalized Correlation)によって算出する。以上の方法によって自己相関差計算部4は演算領域32と比較領域34との間の各画素間の輝度の差分を求め、輝度の差分の総和から比較領域34全体としての類似度38を算出する。
For example, the autocorrelation
自己相関差計算部4は、SADにより類似値38を算出する場合は以下の演算を行う。演算領域32内の各座標(x+i,y+j)の画素11の輝度P1(x+i,y+j)を取得する。次に、比較領域34内の座標(x+u+i,y+v+j)の画素11の輝度P2(x+u+i,y+v+j)を取得する。次に、輝度P1(x+i,y+j)と輝度P2(x+u+i,y+v+j)とで輝度の差の絶対値を演算する。演算領域32内の全ての画素11と比較領域34の全ての画素11との間でそれぞれ演算した輝度の差の絶対値の総和を算出する。自己相関差計算部4は算出した値を比較対象画素35に対応する類似値38とする。輝度の差分の絶対値の総和を算出する演算式は式(1)となる。なお、”t”は現在取得した画像データ10が対象であることを示す。
The autocorrelation
自己相関差計算部4は、SSDにより類似値38を算出する場合は以下の演算を行う。
The autocorrelation
自己相関差計算部4は輝度P1(x+i,y+j)と輝度P2(x+u+i,y+v+j)との間においての輝度の差分の2乗を演算する。自己相関差計算部4は演算領域32の全ての画素と比較領域34の全ての画素との間でそれぞれ演算した輝度の差分の2乗の総和を算出する。自己相関差計算部4は算出した値を比較対象画素35に対応する類似値38とする。輝度の差の2乗の総和を算出する演算式は式(2)となる。なお、”t”は現在取得した画像データ10が対象であることを示す。
The autocorrelation
自己相関差計算部4は、NCORにより類似値38を算出する場合は式(3)の演算を行う。”t”は現在取得した画像であることを示す。なお、”t”は現在取得した画像データ10が対象であることを示す。
The autocorrelation
自己相関差計算部4は、比較領域34と演算領域32との間の全ての画素について輝度の差分を算出するまで処理を繰り返す(S05:no)。自己相関差計算部4は輝度の差分の総和を算出すると(S05:yes)、類似値38(第一の領域と第二の領域とから算出した類似値)として比較対象画素35に対応づけて格納する(S06)。
The autocorrelation
自己相関差計算部4は、探索範囲31内の全ての比較対象画素35と演算対象画素33との間の類似値38を算出するまで処理を繰り返す(S07:no)。自己相関差計算部4は探索範囲31内の全ての比較対象画素35について類似値38の算出をした場合は(S07:yes)、演算対象画素33に探索範囲31内の各比較対象画素35が有する類似値38の差分39中で特徴を示す類似値38の差分39(第一の領域の特徴を示す類似値)を対応付ける(S08)。特徴を示す類似値38の差分39とは、演算領域32の画像が角を含む場合に大きな値となり、演算領域32の画像が直線、及び、アスファルト面のような変化が少ない場合に少ない値となる。S08で対応付けられた類似値38の差分39は後述する車両検出処理に使用される。
The autocorrelation
ここで、S08において自己相関差計算部4が演算対象画素33に対応付ける類似値38の差分39の検出方法について説明する。自己相関差計算部4は演算対象画素33に対応付ける類似値38の差分39を以下の手順で演算する。
Here, a method of detecting the difference 39 of the similarity values 38 that the autocorrelation
自己相関差計算部4が探索範囲31内で演算する比較対象画素35には演算対象画素33自身も含まれる。演算対象画素33自身の間で算出された類似値38は探索範囲31内の比較対象画素35に対応する類似値38の中で最も類似することを示す値となる。したがって、演算対象画素33自身との間で算出した類似値38は除く必要がある。
The comparison target pixel 35 calculated by the autocorrelation
SADおよびSSDによって算出した場合は、演算対象画素33自身との間は同一であり、最も類似することを示す類似値38は”0”となる。SAD、SSDによって算出した場合でかつ演算対象画素33自身が比較対象画素35に含まれる場合は、自己相関差計算部4は探索範囲31中の第二位の類似値38を有する比較対象画素35を検出する。例えば、自己相関差計算部4は演算対象画素33自身との間の類似値38を除く処理をし、探索範囲31内の各比較対象画素35に対応して格納された類似値38の中で最小値となる類似値38を取得する。自己相関差計算部4は取得した値を演算対象画素33に対応付ける類似値38の差分39とする。SADから求める演算を式(4)に示す。SSDから求める演算を式(5)に示す。なお、”t”は現在取得した画像データ10が対象であることを示す。
When calculated by SAD and SSD, the
NCORの場合は、演算対象画素33自身との間は同一であり、類似値38は”1”となる。NCORの場合でかつ演算対象画素33自身が比較対象画素35に含まれる場合は、自己相関差計算部4は探索範囲31中の第二位の類似値38を有する比較対象画素35を検出する。例えば、演算対象画素33自身との間の類似値38を除く処理をし、探索範囲31内の各比較対象画素35に対応して格納された類似値38の中で最大値となる類似値38を取得する。その後、自己相関差計算部4は”1”から第二位の類似値38を引いた値を演算対象画素33に対応付ける類似値38の差分39とする。NCORから求める演算を式(6)に示す。なお、”t”は現在取得した画像データ10が対象であることを示す。
In the case of NCOR, the
次に第二位の類似値38の差分39の特徴を説明する。自己相関差計算部4が算出した類似値38の差分39は演算領域32に角がある場合に大きくなる特徴がある。車両16は正面から見ると多くの角を有する。例えば、車両16に取付けられたフロントガラスの両側の枠部分、車両16のフェンダーミラー部分、車両16の正面のフロントグリル部分、車両16の正面のナンバープレート部分等である。これらの車両16の部分は角として画像データ10に写っており、算出される類似値38は他の角以外が写る領域の類似値38と比較して大きい値となる。類似値38が大きくなるのは、演算領域32と比較領域34とが同一形状の角を有する場合が少ないこと、演算領域32と比較領域34との間で輝度が異なる画素数が多いためである。
Next, the feature of the difference 39 of the second-like similarity value 38 will be described. The difference 39 of the similarity values 38 calculated by the autocorrelation
一方、演算領域32に角がない場合、自己相関差計算部4が算出した類似値38の差分39は小さくなる特徴がある。角がない場合とは、例えば、車両16の屋根部分のような直線のエッジ部分を領域とする場合や、アスファルトのような領域内が同系色で構成される場合である。
On the other hand, when the
自己相関差計算部4は、以上の手順による演算対象画素33に対する類似値38の差分39を取得する演算処理を画像データ10内の全ての画素11を演算対象画素33として行う(S09)。自己相関差計算部4は、画像データ10内の全ての演算対象画素33に類似値38の差分39が対応付けられていない場合(S09:no)、演算対象画素33を画像データ10内の次の画素11に移動して同様に類似値38の差分39を算出する。一方、自己相関差計算部4は、画像データ10内の全ての演算対象画素33に類似値38の差分39が対応付けられた場合(S09:yes)、画像データ10内の各演算対象画素33に対応付けられた類似値38の差分39による分布図50を作成する(S10)。
The autocorrelation
ここで画像データ10内の路上マークについて説明する。分布図50は類似値38の差分39によって構成される。分布図50の類似値38の差分39の値が大きい画素11は、画像データ10内の角が写る領域に多く分布する。しかし、類似値38の差分39は路上マークの角が写る領域でも値が大きくなる。したがって、このような路上マークは誤検出の原因となる。そこで画像メモリ3に格納された画像データ10から背景の余分な部分の削除を行う。背景の余分な部分とは例えば路上マークである。路上マークとは、横断歩道、道路の中央線、歩道との境界を示す線である。本実施例では、画像データ10内の横断歩道に関する情報を削除する処理を行う。また、本実施例では横断歩道が画像データ10内において横方向14と平行に描かれているものとする。また、路上マークの削除の処理は画像データ10を取得する度に行う。事前に路上マークの領域を削除する処理の場合、路上マーク上に車両16がある場合も路上マークの領域を削除することとなり、路上マーク上の車両16を検出できない場合があるためである。
Here, the road mark in the
図6は横断歩道41の例である。図6(A)、(B)および(C)の横断歩道41は車道15上に白色で縞模様42が描かれた領域である。路上マーク削除部5は画像データ10から横断歩道41の領域を以下の手順によって検出する。路上マーク削除部5が検出した横断歩道41の領域は車両16の検出の処理時に演算から除外する。図7は路上マーク削除部5が実行する画像データ10から横断歩道41領域を除外する処理のフローチャートである。
FIG. 6 is an example of a
まず、路上マーク削除部5は画像データ10内で消失点12を向く線分に沿うエッジ47を消去する(S21)。次に、路上マーク削除部5は画像データ10内に周期的に存在する横方向14のエッジ48を消去する(S22)。横断歩道41の縞模様42は画像データ10内の横方向14に存在するためである。次に、路上マーク削除部5は横断歩道41に合致する横方向14の周期長の繰り返しパターンを検出する(S23)。横断歩道41の縞模様42の幅49は規定されている。したがって、路上マーク削除部5は画像データ10内の縦方向13の座標に応じた横方向14の縞模様42の幅49を事前に記憶しておくことができる。
First, the road mark deleting unit 5 deletes the
Ap(x,y)は、現在の演算の対象とする座標43(x,y)の輝度P3(x、y)と現在の演算の対象とする座標43(x,y)から所定量Lだけ横方向14に移動した座標44(x+L,y)の輝度P4(x+L、y)との間の輝度の平均値である。所定量Lは、画像データ10内の縦方向13の座標”y”に応じた横断歩道41の縞模様42の横方向14の幅である。Ap(x,y)はP3とP4の輝度の平均値であるため横断歩道の白色部分の時に大きくなる。路上マーク削除部5はApを式(7)から求める。
Ap (x, y) is a predetermined amount L from the luminance P3 (x, y) of the coordinate 43 (x, y) that is the target of the current calculation and the coordinate 43 (x, y) that is the target of the current calculation. It is an average value of luminance between the coordinates 44 (x + L, y) moved in the
Am(x,y)は、現在の演算の対象とする座標43(x,y)に対して所定量(−L/2)だけ横方向14に移動した座標45(x−L/2,y)の輝度P5(x−L/2、y)と現在の演算の対象とする座標43(x,y)に対して所定量(L/2)だけ横方向14に移動した座標46(x+L/2,y)の輝度P6(x+L/2、y)との間の輝度の平均値である。輝度の平均値は横断歩道の白色部分の時に大きくなる。路上マーク削除部5はAmを式(8)から求める。
Am (x, y) is a coordinate 45 (x−L / 2, y) moved in the
ApとAmとの関係は、P5およびP6がP3およびP4に対して”L/2”だけ横方向14ずらした座標のため輝度が反転する関係となる。輝度が反転する関係とは、P3,P4が横断歩道41の縞模様42の白く塗られた部分に位置する場合、P5,P6は横断歩道41の縞模様42のアスファルト部分に位置する関係である。すなわち、Ap(x、y)が極大値の時にAm(x、y)は極小値となり、Ap(x、y)が極小値の時にAm(x、y)は極大値となる関係である。
The relationship between Ap and Am is a relationship in which the luminance is inverted because P5 and P6 are coordinates shifted by “L / 2” by 14 in the horizontal direction with respect to P3 and P4. The relationship in which the luminance is inverted is a relationship in which P5 and P6 are located in the asphalt portion of the
Cp(x、y)は、輝度P3(x、y)と輝度P4(x+L、y)との差分絶対値である。したがって、P3とP4とが同じ状態の時に小さい値となる。例えば、横断歩道41の縞模様42の白く塗られた部分にP3,P4がそれぞれ位置する場合、あるいは横断歩道41の縞模様42のアスファルト部分にP3,P4がそれぞれ位置する場合である。路上マーク削除部5はCpを式(9)から求める。
Cp (x, y) is a difference absolute value between the luminance P3 (x, y) and the luminance P4 (x + L, y). Therefore, it becomes a small value when P3 and P4 are in the same state. For example, this is the case where P3 and P4 are located in white portions of the
Cm(x、y)は、輝度P5(x−L/2,y)と輝度P6(x+L/2,y)との差分絶対値である。したがって、P5とP6とが同じ状態の時に小さい値となる。例えば、横断歩道41の縞模様42の白く塗られた部分にP5,P6がそれぞれ位置する場合である、あるいは横断歩道の縞模様42のアスファルト部分にP5,P6がそれぞれ位置する場合である。路上マーク削除部5はCmを式(10)から求める。
Cm (x, y) is an absolute difference between the luminance P5 (x−L / 2, y) and the luminance P6 (x + L / 2, y). Therefore, the value is small when P5 and P6 are in the same state. For example, this is the case where P5 and P6 are located in white portions of the
以上の算出したAp、Am、Cp、Cmに基づき、路上マーク削除部5は横断歩道41の特徴点Ecwを式(11)から算出する。
Based on the calculated Ap, Am, Cp, and Cm, the road mark deletion unit 5 calculates the feature point Ecw of the
EcwはApとAmが反転する関係にあるときに大きい値となる。また、Ecwは差分絶対値CpおよびCmが小さい場合に大きい値となる。したがって、横断歩道41の領域では高い特徴点を示すこととなる。
Ecw takes a large value when Ap and Am are in a reversed relationship. Further, Ecw becomes a large value when the absolute difference values Cp and Cm are small. Therefore, a high feature point is shown in the area of the
路上マーク削除部5は算出したEcwの値を対応する画素11に対応付ける(S24)。路上マーク削除部5は以上の演算を画像データ10内の画素11毎に行う(S25)。路上マーク削除部5は横断歩道41であると判断した領域について車両16を特定する処理から除外する(S26)。具体的には、路上マーク削除部5が横断歩道41として検出した画素を自己相関差計算部4が作成した分布図50内の画素とを対応付けて、以降の車両16検出処理の対象外とする。なお、自己相関差計算部4は路上マーク削除部5によって横断歩道41が除去された後の画像データ10によって分布図50を作成することも可能である。横断歩道41の領域を除外することにより、画像処理装置1は車両16を特定する処理において車両16の誤検出を低減することができる。路上マーク削除部5は図6(B)の元の画像データ10に対して、図6(C)の削除すべき横断歩道41の領域を取得する。
The road mark deletion unit 5 associates the calculated Ecw value with the corresponding pixel 11 (S24). The road mark deletion unit 5 performs the above calculation for each pixel 11 in the image data 10 (S25). The road mark deletion unit 5 excludes the area determined to be the
次に、画像処理装置1は演算領域32の特徴を示す類似値の分布の状態に応じて定まる形状が予め車両(被写体)の特徴として定めた形状に合致する領域を画像データ内の車両の部分として検出する。画像処理装置1は自己相関差計算部4及び路上マーク削除部5によって作成された分布図50から車両16を検出する。
Next, the
まず、車両16と類似値38の差分39(特徴を示す類似値)との関係について説明する。画像処理装置1は、車両16の左右対象の形状を利用して分布図50内の車両を検出する。図8は、元の画像データ10の車両16部分の画像(A)と分布図50の車両16部分の画像(B)とを示す。本実施例で設置されたカメラ2は車両16を正面あるいは背面から撮影することとなる。車両16の正面または背面は左右対象の形状である。
First, the relationship between the vehicle 16 and the difference 39 (similar value indicating characteristics) between the similar values 38 will be described. The
車両16の左右に位置する画素群51の類似値38の差分39は大きくなる。車両16の左右の側面には角となる部分が多いためである。車両16のフロント部分に位置する画素群の類似値38の差分39は大きくなる。車両16のフロント部分も角となる部分が多いためである。なお、フロント部分も車両16の中心から左右対称となる。車両16の左右の側面の外側に位置する画素群52の類似値38の差分39は小さくなる。車両16の外側はアスファルトであるため類似値38の差分39は小さくなるためである。車両16のフロント部分の更に手前、すなわち車両16の前方に位置する画素群53に対応する類似値38の差分39は小さくなる。車両16の外側はアスファルトであるため類似値38は小さくなるためである。車両16のフロント部分に位置する画素群の類似値は小さい値が分布する。なお、手前方向に向く車両16のフロント部分の前方は、二次元の画像データ10では車両16よりも下の縦方向13の座標となる。
The difference 39 between the similarity values 38 of the
以上の車両16の左右に位置する画素群51、車両16の左右の側面の外側に位置する画素群52および車両16の前方に位置する画素群53の分布図50内の状態に基づき、予め車両の特徴となるパターンを定義する。本実施例での車両16の特徴となるパターンは以下の条件によって定義する。
・条件1.車両16の左右に類似値38の差分39が大きい画素群51が分布する。
・条件2.車両16の両側面の更に外側となる領域に類似値38の差分39が小さい画素群52が分布する。
・条件3.車両16の下側には類似値38の差分39が小さい画素群53が分布する。Based on the state in the
・ Condition 1 A
・ Condition 2 A
-
画像処理装置1のパターン特徴量計算部6は以上の条件を満たす領域を分布図50から検出する。
The pattern feature
図9はパターン特徴量計算部6が実行する分布図10から車両16が存在する領域を検出する処理のフローチャートである。パターン特徴量計算部6は図8の分布図50の各画素54について以下の計算を行う。まず、パターン特徴量計算部6は分布図50の中の現在の演算の対象となる画素54を検出対象画素55として設定する(S31)。パターン特徴量計算部6は検出対象画素55を基準位置として特徴量を算出する(S32)。具体的には、パターン特徴量計算部6は類似値38の差分39の分布の状態を下記の式(12)乃至式(16)の結果から取得する。なお、”t”は現在取得した画像データ10が対象であることを示す。
FIG. 9 is a flowchart of processing for detecting an area where the vehicle 16 exists from the
式(12)によって求められるEleft56は検出対象画素55を基準の座標として”k1”,”l1”で定められる領域内の画素54の類似値38の差分39の総和である。式(13)によって求められるEright57は検出対象画素55を基準位置として”k2”,”l2”で定められる領域内の画素54の類似値38の差分39の総和である。Eleft56、Eright57は車両16の中央から左右の側面部分までの範囲に対応する。車両16の側面部分およびフロント部分は角部分が多く類似値38の差分39が大きい値が多く分布する。なお、”t”は現在取得した画像データ10が対象であることを示す。
The
式(14)によって求められるEside58は検出対象画素55を基準位置として分布図50の左側の”k3”,”l3”で定められる領域内の画素54の類似値38の差分39の総和である。Eside58は車両16の側面よりも更に外側に対応する。車両16の側面よりも更に外側となる領域はアスファルトであり類似値38の差分39が小さい値が多く分布する。
式(15)によって求められるEbottom59は検出対象画素55を基準位置として分布図50の下側の”k4”,”l4”で定められる領域内の画素54の類似値38の差分39の総和である。Ebottom59は車両16の下側となる。検出対象画素55の基準位置が車両16のフロント部分の下端である場合、Ebottom59の領域は道路となる。したがって、Ebottom59の値は小さくなる。
Ebottom 59 obtained by equation (15) is the sum of the differences 39 of the similarity values 38 of the
パターン特徴量計算部6は以上の各式(12)乃至式(15)により算出した値を下記の式(16)に代入して、検出対象画素55に対応する車両16の特徴の大きさを示す値60E(x,y)を得る。なお、”t”は現在取得した画像データ10が対象であることを示す。
The pattern feature
E(x、y)は、Eleft56、Eright57の値が大きい場合に大きくなる。
また、検出対象画素55が車両16の中央であった場合、Eleft56とEright57とは左右対称に位置することとなる。したがって、Eleft56の値とEright57の値は近い値となる。E(x、y)はEleft56、Eright57の左右のバランスがある場合に小さくなる。E(x、y)はEside58の値が小さい場合に小さくなる。E(x、y)はEbottom59の値が小さい場合に小さくなる。なお、Cside、Cbottomの値は、カメラ2が撮影する道路の状態等に応じて設計者が設定する値である。パターン特徴量計算部6は算出したE(x、y)を検出対象画素55に対応付ける(S33)。E (x, y) increases when the values of
In addition, when the
パターン特徴量計算部6は以上の処理を分布図50内の全画素54について演算する(S34)。パターン特徴量計算部6は、演算結果によって、分布図50内で車両16が存在すると考えられる領域の縦方向13の座標、および横方向14の座標を取得することができる。
The pattern feature
パターン特徴量計算部6による車両16の検出の演算は自己相関差計算部4が元の画像データ10について演算対象画素33を基準とした類似値38の差分39を取得し、類似値38の差分39によって分布図50を作成するため、画像データ10に写る影等の影響は低減している。
In the calculation of the detection of the vehicle 16 by the pattern feature
一方、画像処理装置1の対象性特徴量計算部7は分布図50から車両16の左右の中心座標を求める演算を行う。図10は分布図50と車両16の対象性との関係を示す図である。車両16の形状は左右対象である。したがって、類似値38の差分39は車両16の中心から左右に対象に分布する。そこで、対象性特徴量計算部7は車両16の左右対称性を利用した車両16の位置の特定を行う。対象性の評価は以下の手順により行う。
On the other hand, the target characteristic
図11は、対象性特徴量計算部7が実行する分布図10から車両16が存在する領域を検出する処理のフローチャートである。
FIG. 11 is a flowchart of a process for detecting a region where the vehicle 16 exists from the
対象性特徴量計算部7は現在の演算の対象となる座標として図10の演算中央座標61(x,y)を設定する(S41)。次に対象性特徴量計算部7は演算中央座標61(x,y)の特徴量を算出する(S42)。具体的には、対象性特徴量計算部7は演算中央座標61(x,y)の横方向14の座標”x”を中心として正の横方向14に離れた座標63”+i”および負の横方向14に離れた座標62”−i”だけ離れた座標のそれぞれの輝度を取得する。”i”は対象性を算出すべき範囲で適宜定められる。例えば、”i”の範囲は画像データ10内の縦方向13の座標に対応する車両16の幅の半分の大きさに設定される。対象性特徴量計算部7は演算中央座標61(x,y)から正の横方向14に離れた座標63を”x+i,y”とし、座標63”x+i,y”の輝度をP7(x+i,y)とする。対象性特徴量計算部7は演算中央座標61(x,y)から負の横方向14に離れた座標62を”x−i,y”とし、座標62”x−i,y”の輝度をP8(x−i,y)とする。
The target characteristic
対象性特徴量計算部7は現在の輝度P7と輝度P8との合計値を式(17)のS(i)によって算出する。
The target characteristic feature
S(i)は輝度P7および輝度P8のそれぞれの輝度が大きい場合に大きな値となる。なお、”t”は現在取得した画像データ10が対象であることを示す。対象性特徴量計算部7は現在の輝度P7と輝度P8との差分値を式(18)のD(i)によって算出する。
S (i) takes a large value when the luminances P7 and P8 are large. Note that “t” indicates that the currently acquired
D(i)は輝度P7および輝度P8が近い値の場合に小さい値となる。したがって、D(i)は輝度P7および輝度P8のバランスを示す。なお、”t”は現在取得した画像データ10が対象であることを示す。
D (i) is a small value when the luminance P7 and the luminance P8 are close to each other. Therefore, D (i) indicates the balance between the luminance P7 and the luminance P8. Note that “t” indicates that the currently acquired
対象性特徴量計算部7は車両の中央を通る線を式(19)のEsym(x,y)によって算出する。
The objectivity feature
Esym(x,y)は演算中央座標61(x,y)から”i”を所定の範囲で変化させた時のS(i)の絶対値の総和からD(i)の絶対値の総和を引いた値である。したがって、Esym(x,y)は演算の対象となる領域内の左右の輝度が等しくかつ左右の輝度が大きい場合に大きな値となる。対象性特徴量計算部7はS32で算出したEsym(x,y)を演算中央座標61に対応付ける(S43)。
Esym (x, y) is the sum of absolute values of D (i) from the sum of absolute values of S (i) when “i” is changed within a predetermined range from the calculation central coordinates 61 (x, y). Subtracted value. Therefore, Esym (x, y) takes a large value when the left and right luminances in the region to be calculated are equal and the left and right luminances are large. The target characteristic
以上の演算を対象性特徴量計算部7が分布図50内の全ての画素54について行う(S44)ことにより、分布図50内の車両16の中央を通る線を検出することが可能となる。
By performing the above calculation for all the
また、対象性特徴量計算部7は以下の式により車両16の重心Rsym(x、y)を求める式(20)により車両16の中央を通る線を検出することも可能である。なお、”t”は現在取得した画像データ10が対象であることを示す。
Further, the target characteristic
次に、車両位置判定部8が行う処理について説明する。 Next, processing performed by the vehicle position determination unit 8 will be described.
車両位置判定部8は、パターン特徴量計算部6による車両16のパターンの認識処理から分布図50内の車両16が存在する縦方向13の座標および横方向14の座標を得る。縦方向13の座標は、画像データ10内で車両16が手前方向に向いている場合、車両16のフロントの下端となる。また、車両位置判定部8は、対象性特徴量計算部7による車両16の左右の中心を通る線を求める処理から分布図50内の車両16の中央となる横方向14の座標を得る。車両位置判定部8はパターン特徴量計算部6による演算結果と対象性特徴量計算部7による演算結果を重ねあわせ、画像データ10内において車両16が存在する基準となる座標を取得する。車両位置判定部8は取得した基準となる座標から画像データ10あるいは分布図50の輝度のピークを検出して車両16のフロント部分の幅を示す画素数を取得する。
The vehicle position determination unit 8 obtains the coordinate in the
車両16の基準となる縦方向13の座標およびピーク検出によって取得した車両16のフロント部分の幅の画素数からデータベース20の合致する車種を検出する。以上により、画像処理装置1は画像データ10内の車両16の位置を検出し、及び、車両16の車種を特定することが可能となる。
A matching vehicle type in the
図12は、本実施例による車両の検出例である。 FIG. 12 is an example of vehicle detection according to this embodiment.
元の画像データ(A)はカメラ2が撮影した画像である。
車両部分(B)は、元の画像データ(A)の車両部分を抜き出した領域である。
本実施例による検出(C)は、本実施例の処理によって検出した場合の検出範囲である。
背景差分による検出(D)は、従来技術である背景差分方式によって検出した場合の検出範囲である。エッジ検出(E)は、従来技術であるエッジ検出方式によって検出した場合の検出範囲である。背景差分方式およびエッジ検出方式、では影部分の影響を受けるため車両のみの範囲を検出することができない。The original image data (A) is an image taken by the
The vehicle portion (B) is an area where the vehicle portion of the original image data (A) is extracted.
Detection (C) according to the present embodiment is a detection range when detection is performed by the processing of the present embodiment.
Detection by background difference (D) is a detection range in the case of detection by the background difference method which is a conventional technique. Edge detection (E) is a detection range in the case of detection by an edge detection method that is a conventional technique. In the background difference method and the edge detection method, the range of only the vehicle cannot be detected because it is affected by the shadow portion.
図13は、本実施例の画像処理装置1のハードウェア構成例である。画像処理装置1は、CPU101、カメラ2、メモリ103、出力部104および、バス105からなる。CPU101、カメラ2、メモリ103、および、出力部104はバス105により接続され各部間でデータの授受を行う。CPU101は、メモリ103に格納されている画像処理プログラム100をワークエリアに読出して実行する中央処理装置である。画像処理プログラム100は、画像処理装置1のCPU101を自己相関差計算部4、路上マーク削除部5、パターン特徴量計算部6、対象性特徴量計算部7及び車両位置判定部8として機能させる。
FIG. 13 is a hardware configuration example of the
メモリ103は、画像処理装置1の種々の情報を記憶する。例えば、RAM、ハードディスク装置等である。メモリ103は、CPU101が演算を行う際のワークエリアともなる。また、データベース20に格納された情報も記憶する。
The
出力部104は、画像データ10内で検出した車両16の位置及び特定した車種の情報を出力するためのインターフェースである。例えば、出力先は他の車両が有する無線端末である。他の車両は、画像データ10内に車両16が存在する旨の情報を受信する。無線通信の場合のインターフェースは無線端末との間の無線プロトコル(例えばIEEE802.11に定められた手続き)で通信を行う。
The
本実施例は車両16の検出のための基本的な特徴量として画素11間の類似値38の差分39を使用する。類似値38の差分39による特徴量は曲線および角部分の値が大きくなる。また、車両の正面あるいは背面が左右対称であることを利用する。したがって、類似値38の差分39による特徴量は車両16の正面あるいは背面を検出する場合に有効である。一方、類似値38の差分39による特徴量は直線的な部分や曲率の少ない部分での反応は小さくなる。したがって、類似値38の差分39による特徴量は影などの直線の部分や単純な形状になりやすい部分に対しては反応が小さくなる。その結果、類似値38の差分39による特徴量は影による誤検出や路面反射による誤検出を減少させることができる。 In this embodiment, the difference 39 of the similarity values 38 between the pixels 11 is used as a basic feature amount for detecting the vehicle 16. In the feature amount due to the difference 39 of the similarity value 38, the values of the curve and the corner portion are large. Further, the fact that the front or back of the vehicle is symmetrical is utilized. Therefore, the feature amount based on the difference 39 of the similarity value 38 is effective when detecting the front or back of the vehicle 16. On the other hand, the feature amount due to the difference 39 of the similarity value 38 has a small response in a linear portion or a portion with a small curvature. Therefore, the feature amount based on the difference 39 of the similarity value 38 is less responsive to a straight portion such as a shadow or a portion that tends to be a simple shape. As a result, the feature amount based on the difference 39 of the similarity value 38 can reduce erroneous detection due to shadows and erroneous detection due to road surface reflection.
また、画像データ10を一定時間の間隔で取得するシステムに本実施例を応用する場合、複数の画像データ10間において車両16が存在する位置の差分を取得することにより車両16の移動速度を計算することも可能である。
Further, when the present embodiment is applied to a system that acquires the
なお、本実施例は、画素11を基準として演算の処理を行ったが、画像データ10内の複数の画素11を一つのまとまりをした領域を演算の単位とすることも可能である。すなわち、ディジタル画像データ10の画素数を減少させるようなサイズの変更をした場合、複数の画素11が寄せ集められ一つの画素となるサイズの縮小がなされる。一方、ディジタル画像データ10の画素数を増加させるようなサイズの変更をした場合、周囲の画素11との関係から補間した画素11を新たな画素11とするサイズの拡大がなされる。したがって、複数の画素11を一つのまとまりとした領域とみなした検出を行うことは画像データ10のサイズ変更をした後、画素11毎に検出処理を行うことと実質同一である。
In the present embodiment, calculation processing is performed using the pixel 11 as a reference. However, a region in which a plurality of pixels 11 in the
更に、本実施例では、自己相関差計算部4が設定する演算領域32、比較領域34、及び探索範囲31はいずれも画像データ10内で均一として説明した。しかし、画像データ10内で三次元空間として見た場合に手前となる領域あるいは奥となる領域に応じて探索範囲31、演算領域32、および、比較領域34の範囲を変更することも可能である。例えば、三次元空間として見た場合に奥となる領域については、探索範囲31、演算領域32、および、比較領域34の範囲を小さくする。一方、三次元空間として見た場合に手前となる領域については、探索範囲31、演算領域32、および、比較領域34の範囲を大きくする。範囲を変更することにより、自己相関差計算部4が実行する演算量を削減することができる。また範囲を変更することにより、各座標位置に応じた精度の検出を行うことができる。具体的には、演算対象画素33の画像データ10内の縦方向13の座標値に応じて探索範囲31、演算領域32、および、比較領域34の範囲を変化させるためのデータを予め設けておくことにより可能である。
Furthermore, in the present embodiment, the
また、本実施例は画像データ10の輝度によって類似値を算出する方法について説明した。本実施例は輝度だけでなく、明度、色相、彩度の組合せによって類似値を算出することができる。
In the present embodiment, the method of calculating the similarity value based on the luminance of the
本発明は、画像データ内の車両の位置の検出を少ない演算で可能とすることにより、画像データ内の車両の状態を通知するシステムに利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used in a system that notifies the state of a vehicle in image data by enabling detection of the position of the vehicle in image data with a small amount of computation.
Claims (9)
前記画像データ内の被写体を検出する検出対象領域を決定し、
決定した該検出対象領域に含まれる複数の第一の画素のそれぞれを中心としかつ第一の所定数の画素を含む複数の第一の領域をそれぞれの該複数の第一の画素毎に決定し、
該複数の第一の画素のそれぞれを中心としかつ第二の所定数の画素を含む探索範囲をそれぞれの該複数の第一の画素毎に決定し、
決定した該それぞれの探索範囲に含まれる複数の第二の画素のそれぞれを中心としかつ該第一の所定数に対応する数の画素を含む複数の第二の領域をそれぞれの該複数の第二の画素毎に決定し、
決定した該複数の第二の領域のそれぞれの画像と該第一の領域の画像との特徴を比較することにより該第一の領域とそれぞれの該複数の第二の領域間の類似値をそれぞれの該複数の第二の領域毎に算出し、
算出した該複数の第二の領域毎の該類似値をそれぞれの該複数の第二の画素に対応付け、
該それぞれの探索範囲に含まれる該第一の画素以外の該複数の第二の画素に対応付けられたそれぞれの類似値の中で該第一の領域に最も類似することを示す第二の類似値を選択し、
選択した該第二の類似値を該それぞれの探索範囲に対応する該第一の画素に対応付け、
前記検出対象領域内の複数の第一の画素のそれぞれに対応付けた第二の類似値を前記第一の画素の位置にマッピングすることで分布を求め、
前記分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出することを特徴とする画像データ認識方法。An image data recognition method for detecting a subject in image data,
Determining a detection target area for detecting a subject in the image data ;
Determining a plurality of first regions each first pixel of each of the plurality including a respective center and a vital first predetermined number of pixels of the plurality of first pixels included in the determined detection target area And
Determining a search range to a respective one pixel of each of the plurality including respective center Toshikatsu second predetermined number of pixels of the plurality of first pixels,
It determined the respective search ranges INCLUDED multiple second plurality including the number of pixels corresponding to a predetermined number each of centered and vital said first pixel and the second region each plurality of Determined for each second pixel,
By comparing the characteristics of the determined images of the plurality of second regions and the images of the first region, the similarity values between the first region and the plurality of second regions are respectively determined. For each of the plurality of second regions of
Associating the calculated similarity values for the plurality of second regions with the plurality of second pixels,
Second similar indicating that most similar to said first region within each similarity value associated with the second pixel of the plurality other than the first pixels included in each search range the Select a value
Associating the selected second similarity value with the first pixel corresponding to the respective search range;
The distribution is obtained by mapping the second similarity value associated with each of the plurality of first pixels in the detection target region to the position of the first pixel,
A method of recognizing an image data, wherein an area where a shape determined according to the distribution state matches a shape previously determined as a feature of the subject is detected as a portion of the subject in the image data.
該画像データで該車道の手前側に相当する領域の検出に使用する該第一の領域、該第二の領域および該探索範囲が含むべき画素数を、該画像データで該車道の奥側に相当する領域の検出に使用する該第一の領域、該第二の領域および該探索範囲が含むべき画素数よりも多くする
ことを特徴とする請求項1記載の画像データ認識方法。The image data is imaged from obliquely above the road so that the road, the subject vehicle on the road, and the vanishing point of the road are shown.
The number of pixels that should be included in the first area, the second area, and the search range used to detect an area corresponding to the front side of the roadway in the image data is displayed on the back side of the roadway in the image data. The image data recognition method according to claim 1 , wherein the number of pixels to be included in the first region, the second region, and the search range used for detection of the corresponding region is larger. .
検出した該第三の領域内の左右側に類似していないことを示す類似値が分布し、かつ、該第三の領域内の左右側の類似していないことを示す類似値に左右方向の中央を挟み対象性があり、かつ、該第三の領域の下側に周囲と類似していることを示す類似値が分布する場合に、該第三の領域の下側に相当する座標を前記車両のフロントの座標とすることを特徴とする請求項3記載の画像データ認識方法。 In the obtained distribution of the second similarity values, a rectangular third region is detected in which similarity values indicating that the similarity values are less similar than the similarity values distributed in the surroundings are detected,
Similar values indicating dissimilarity on the left and right sides in the detected third region are distributed, and the similar values indicating dissimilarity on the left and right sides in the third region are There is symmetry sandwich the center, and, if the similarity value indicating that similar to the ambient on the lower side of said third region is distributed, the coordinates corresponding to the lower side of said third region and the 4. The image data recognition method according to claim 3, wherein the coordinates are front coordinates of the vehicle.
前記画像データ内の被写体を検出する検出対象領域を決定する手段と、
決定した該検出対象領域に含まれる複数の第一の画素のそれぞれを中心としかつ第一の所定数の画素を含む複数の第一の領域をそれぞれの該複数の第一の画素毎に決定する手段と、
該複数の第一の画素のそれぞれを中心としかつ第二の所定数の画素を含む探索範囲をそれぞれの該複数の第一の画素毎に決定する手段と、
決定した該それぞれの探索範囲に含まれる複数の第二の画素のそれぞれを中心としかつ該第一の所定数に対応する数の画素を含む複数の第二の領域をそれぞれの該複数の第二の画素毎に決定する手段と、
決定した該複数の第二の領域のそれぞれの画像と該第一の領域の画像との特徴を比較することにより該第一の領域とそれぞれの該複数の第二の領域間の類似値をそれぞれの該複数の第二の領域毎に算出する手段と、
算出した該複数の第二の領域毎の該類似値をそれぞれの該複数の第二の画素に対応付ける手段と、
該それぞれの探索範囲に含まれる該第一の画素以外の該複数の第二の画素に対応付けられたそれぞれの類似値の中で該第一の領域に最も類似することを示す類似値を選択する手段と、
選択した該類似値を該それぞれの探索範囲に対応する該第一の画素に対応付ける手段と、
前記検出対象領域内の複数の第一の画素のそれぞれに対応付けた類似値を前記第一の画素の位置にマッピングすることで分布を求める手段と、
前記分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出する手段とを有することを特徴とする画像データ認識装置。An image data recognition device for detecting a subject in image data,
Means for determining a detection target region for detecting a subject in the image data ;
Determining a plurality of first regions each first pixel of each of the plurality including a respective center and a vital first predetermined number of pixels of the plurality of first pixels included in the determined detection target area Means to
It means for determining a search range for each first pixel of each of the plurality including respective center Toshikatsu second predetermined number of pixels of the plurality of first pixels,
It determined the respective search ranges INCLUDED multiple second plurality including the number of pixels corresponding to a predetermined number each of centered and vital said first pixel and the second region each plurality of Means for determining each second pixel ;
The similarity values between each and said first region the plurality of second regions by you compare the characteristics of the respective image and the image of the first region of the determined plurality of second regions Means for calculating each of the plurality of second regions ;
Means the calculated plurality of second the similarity value for each area that associates to a second pixel of each of the plurality,
Select a similarity value indicating that the most similar to said first region within each similarity value associated with the second pixel of the plurality other than the first pixels included in each search range the Means to
Means that the selected said similarity value to correspond to the first pixels corresponding to the search range of each said,
Means asking you to distribution by mapping the similar values associated with each of the plurality of first pixel within the detection target region to a position of the first pixel,
An image data recognition apparatus comprising: means for detecting, as a portion of a subject in image data, a region in which a shape determined according to the distribution state matches a shape previously determined as a feature of the subject.
前記画像データ内の被写体を検出する検出対象領域を決定し、
決定した該検出対象領域に含まれる複数の第一の画素のそれぞれを中心としかつ第一の所定数の画素を含む複数の第一の領域をそれぞれの該複数の第一の画素毎に決定する手段と、
該複数の第一の画素のそれぞれを中心としかつ第二の所定数の画素を含む探索範囲をそれぞれの該複数の第一の画素毎に決定し、
決定した該それぞれの探索範囲に含まれる複数の第二の画素のそれぞれを中心としかつ該第一の所定数に対応する数の画素を含む複数の第二の領域をそれぞれの該複数の第二の画素毎に決定し、
決定した該複数の第二の領域のそれぞれの画像と該第一の領域の画像との特徴を比較することにより該第一の領域とそれぞれの該複数の第二の領域間の類似値をそれぞれの該複数の第二の領域毎に算出し、
算出した該複数の第二の領域毎の該類似値をそれぞれの該複数の第二の画素に対応付け、
該それぞれの探索範囲に含まれる該第一の画素以外の該複数の第二の画素に対応付けられたそれぞれの類似値の中で該第一の領域に最も類似することを示す類似値を選択する手段、
選択した該類似値を該それぞれの探索範囲に対応する該第一の画素に対応付け、
前記検出対象領域内の複数の第一の画素のそれぞれに対応付けた類似値を前記第一の画素の位置にマッピングすることで分布を求め、
前記分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出する
、処理を実行するように機能させることを特徴とする画像データ認識プログラム。An image data recognition program for detecting an object in the image data, the computer,
Determining a detection target area for detecting a subject in the image data ;
Determining a plurality of first regions each first pixel of each of the plurality including a respective center and a vital first predetermined number of pixels of the plurality of first pixels included in the determined detection target area Means to
Determining a search range to a respective one pixel of each of the plurality including respective center Toshikatsu second predetermined number of pixels of the plurality of first pixels,
It determined the respective search ranges INCLUDED multiple second plurality including the number of pixels corresponding to a predetermined number each of centered and vital said first pixel and the second region each plurality of Determined for each second pixel ,
By comparing the characteristics of the determined images of the plurality of second regions and the images of the first region, the similarity values between the first region and the plurality of second regions are respectively determined. second was calculated for each region of the plurality of,
Associating the calculated similarity values for the plurality of second regions with the plurality of second pixels,
Select a similarity value indicating that the most similar to said first region within each similarity value associated with the second pixel of the plurality other than the first pixels included in each search range the Means to
Associating the selected similarity value with the first pixel corresponding to the respective search range;
The distribution is obtained by mapping the similarity value associated with each of the plurality of first pixels in the detection target region to the position of the first pixel,
Image data recognition characterized by functioning to execute a process of detecting, as a portion of the subject in the image data, an area in which the shape determined according to the distribution state matches the shape previously determined as the feature of the subject program.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2006/323685 WO2008065707A1 (en) | 2006-11-28 | 2006-11-28 | Image data recognizing method, image processing device, and image data recognizing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2008065707A1 JPWO2008065707A1 (en) | 2010-03-04 |
JP4743277B2 true JP4743277B2 (en) | 2011-08-10 |
Family
ID=39467511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008529068A Expired - Fee Related JP4743277B2 (en) | 2006-11-28 | 2006-11-28 | Image data recognition method, image processing apparatus, and image data recognition program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4743277B2 (en) |
WO (1) | WO2008065707A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2291836B1 (en) * | 2008-05-21 | 2018-09-12 | ADC Automotive Distance Control Systems GmbH | Driver assistance system for preventing a vehicle colliding with pedestrians |
JP5548212B2 (en) * | 2009-09-29 | 2014-07-16 | パナソニック株式会社 | Crosswalk sign detection method and crosswalk sign detection device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06201379A (en) * | 1992-12-28 | 1994-07-19 | Mitsubishi Electric Corp | Range finder |
JPH09330404A (en) * | 1996-06-10 | 1997-12-22 | Nippon Telegr & Teleph Corp <Ntt> | Object detector |
JPH11345336A (en) * | 1998-06-03 | 1999-12-14 | Nissan Motor Co Ltd | Obstacle detecting device |
JP2000039306A (en) * | 1998-07-22 | 2000-02-08 | Nec Corp | Device and method for vehicle system area detection |
JP2001351200A (en) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | Onboard object detecting device |
JP2005149250A (en) * | 2003-11-18 | 2005-06-09 | Daihatsu Motor Co Ltd | Vehicle detection method and vehicle detection system |
-
2006
- 2006-11-28 JP JP2008529068A patent/JP4743277B2/en not_active Expired - Fee Related
- 2006-11-28 WO PCT/JP2006/323685 patent/WO2008065707A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06201379A (en) * | 1992-12-28 | 1994-07-19 | Mitsubishi Electric Corp | Range finder |
JPH09330404A (en) * | 1996-06-10 | 1997-12-22 | Nippon Telegr & Teleph Corp <Ntt> | Object detector |
JPH11345336A (en) * | 1998-06-03 | 1999-12-14 | Nissan Motor Co Ltd | Obstacle detecting device |
JP2000039306A (en) * | 1998-07-22 | 2000-02-08 | Nec Corp | Device and method for vehicle system area detection |
JP2001351200A (en) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | Onboard object detecting device |
JP2005149250A (en) * | 2003-11-18 | 2005-06-09 | Daihatsu Motor Co Ltd | Vehicle detection method and vehicle detection system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2008065707A1 (en) | 2010-03-04 |
WO2008065707A1 (en) | 2008-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8204278B2 (en) | Image recognition method | |
JP4380838B2 (en) | Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program | |
US9123242B2 (en) | Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program | |
JP5787024B2 (en) | Three-dimensional object detection device | |
JP5267596B2 (en) | Moving body detection device | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
JP4416039B2 (en) | Striped pattern detection system, striped pattern detection method, and striped pattern detection program | |
US10339396B2 (en) | Vehicle accessibility determination device | |
JP2017533482A (en) | Lane data processing method, apparatus, storage medium and equipment | |
CN108197523B (en) | Night vehicle detection method and system based on image conversion and contour neighborhood difference | |
CN112424565B (en) | Vehicle-mounted environment recognition device | |
JP2008082870A (en) | Image processing program, and road surface state measuring system using this | |
CN106056570A (en) | Road surface gradient detection device | |
JP2013140515A (en) | Solid object detection device and program | |
JP7050763B2 (en) | Detection of objects from camera images | |
JP6846230B2 (en) | In-vehicle control device and in-vehicle environment recognition device | |
CN105868688A (en) | Traveling road surface detection device and traveling road surface detection method | |
JP3729025B2 (en) | Pedestrian detection device | |
JPWO2017002209A1 (en) | Display control apparatus, display control method, and display control program | |
CN108197590B (en) | Pavement detection method, device, terminal and storage medium | |
JP4674179B2 (en) | Shadow recognition method and shadow boundary extraction method | |
CN111243003A (en) | Vehicle-mounted binocular camera and method and device for detecting road height limiting rod | |
JP4517003B2 (en) | Automatic road sign recognition system | |
CN110414425A (en) | A width adaptive lane line detection method and system based on vanishing point detection | |
JP4743277B2 (en) | Image data recognition method, image processing apparatus, and image data recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101203 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110425 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140520 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |