JP2016004446A - Motion estimation device - Google Patents
Motion estimation device Download PDFInfo
- Publication number
- JP2016004446A JP2016004446A JP2014124793A JP2014124793A JP2016004446A JP 2016004446 A JP2016004446 A JP 2016004446A JP 2014124793 A JP2014124793 A JP 2014124793A JP 2014124793 A JP2014124793 A JP 2014124793A JP 2016004446 A JP2016004446 A JP 2016004446A
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion estimation
- captured image
- pixel
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像した画像に基づいて自車両の周辺の物体の動きを推定する動き推定装置に関する。 The present invention relates to a motion estimation device that estimates the motion of an object around a host vehicle based on a captured image.
従来、この種の動き推定装置が知られている。例えば、下記の特許文献1には、ステレオカメラで撮像した時系列画像から、対応点探索処理によって自車両の周辺の対象物体の2次元オプティカルフローを算出する周辺監視装置が開示されている。この特許文献1の技術では、その2次元オプティカルフローに基づいて対象物体の存在する可能性の高い候補領域を抽出する。そして、この技術では、その候補領域の3次元情報をステレオカメラの画像から取得し、その3次元情報とステレオカメラを有する周辺監視装置との位置関係に基づいて、自車両と対象物体との衝突可能性を判定している。
Conventionally, this kind of motion estimation apparatus is known. For example,
ところで、自車両から遠く離れている物体(例えば撮像した画像上の消失点付近に存在している物体)は、撮像間隔の短いフレーム間において、自車両の近くの物体よりも見かけ上の動きが小さい。このため、そのような遠方領域の物体については、自車両の近くの物体と比べて2次元オプティカルフローの算出が難しい。よって、遠方領域においては、画像の撮像タイミングが同じであるにも拘わらず、自車両の近傍領域と比べて、動きのある物体の検出精度の低下や対象物体の存在する可能性の高い候補領域の抽出精度の低下を引き起こす可能性がある。 By the way, an object that is far from the own vehicle (for example, an object that exists in the vicinity of the vanishing point on the captured image) has a more apparent movement than an object near the own vehicle between frames with a short imaging interval. small. For this reason, it is difficult to calculate a two-dimensional optical flow for an object in such a far region as compared to an object near the own vehicle. Therefore, in the far field, although the image capturing timing is the same, the candidate area is likely to have a lower detection accuracy of a moving object and the presence of the target object than in the vicinity of the host vehicle. This may cause a decrease in extraction accuracy.
そこで、本発明は、かかる従来例の有する不都合を改善し、遠方領域の物体の動きを精度良く推定することが可能な動き推定装置を提供することを、その目的とする。 Accordingly, an object of the present invention is to provide a motion estimation device that can improve the disadvantages of the conventional example and can accurately estimate the motion of an object in a far region.
上記目的を達成する為、本発明は、自車両の周辺の撮像領域を撮像し、輝度値情報が含まれた画素の集合体である撮像画像を時系列で出力する撮像装置と、前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、動き推定対象の前記撮像画像の画素が自車両に対して遠方に存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する一方、前記動き推定対象の撮像画像の前記画素が自車両の近くに存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する探索画像設定部と、前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点の画素に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、を備えることを特徴としている。 In order to achieve the above object, the present invention captures an imaging region around a host vehicle and outputs a captured image, which is a collection of pixels including luminance value information, in time series, and the captured image An image information storage unit that stores the information in association with the imaging time, a distance information generation unit that calculates depth distance information from the imaging device to the pixel of the captured image based on luminance value information of the captured image, and movement As the pixels of the captured image to be estimated are located farther from the own vehicle, the captured image of the image information storage unit that is further away from the captured image of the motion estimation target While setting as a search image associated with a pixel, the closer the pixel of the captured image of the motion estimation target is to the vehicle, the closer the imaging time is to the captured image of the motion estimation target Image information A search image setting unit that sets the captured image of the unit as a search image associated with the pixel, a pixel of the captured image that is the motion estimation target is set as a target point for each pixel, and a corresponding point corresponding to the target point And a motion estimation unit that estimates the motion of the target point from the search image associated with the pixel of the target point.
ここで、前記探索画像設定部は、前記動き推定対象の撮像画像の前記画素における2次元の動きベクトルの大きさの推定値が大きくなるほど、撮像時間のより新しい前記画像情報記憶部の前記撮像画像を前記探索画像に設定することが望ましい。 Here, the search image setting unit has a newer imaging time in the captured image of the image information storage unit as the estimated value of the two-dimensional motion vector in the pixel of the captured image of the motion estimation target increases. Is preferably set in the search image.
上記目的を達成する為、本発明は、自車両の周辺の撮像領域を撮像し、輝度値情報が含まれた画素の集合体である撮像画像を時系列で出力する撮像装置と、前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、動き推定対象の前記撮像画像を複数の領域に分割する領域設定部と、自車両に対して遠方に存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する一方、自車両の近くに存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する探索画像設定部と、前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点が含まれた前記領域に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、を備えることを特徴としている。 In order to achieve the above object, the present invention captures an imaging region around a host vehicle and outputs a captured image, which is a collection of pixels including luminance value information, in time series, and the captured image An image information storage unit that stores the information in association with the imaging time, a distance information generation unit that calculates depth distance information from the imaging device to the pixel of the captured image based on luminance value information of the captured image, and movement An area setting unit that divides the captured image to be estimated into a plurality of areas, and the area that is located farther from the host vehicle is more distant from the captured image that is the motion estimation object While the captured image of the image information storage unit is set as a search image associated with the region, the region existing closer to the vehicle has a longer imaging time than the captured image of the motion estimation target. Close said A search image setting unit that sets the captured image of the image information storage unit as a search image associated with the region, and a pixel of the captured image that is the motion estimation target is set as a target point for each pixel, and corresponds to the target point And a motion estimator that searches for the corresponding point from the search image associated with the region including the target point and estimates the motion of the target point.
ここで、前記領域設定部は、前記動き推定対象の撮像画像上における撮像対象の位置情報と、前記動き推定対象の撮像画像上で自車線と対向車線と路側とを区分けした領域の位置情報と、前記動き推定対象の撮像画像上における消失点から各画素までの距離と、前記動き推定対象の撮像画像の各画素の奥行距離と、前記動き推定対象の撮像画像の前記画素の2次元の動きベクトルの大きさの推定値と、の内の少なくとも1つに基づいて、前記動き推定対象の撮像画像を複数の領域に分割することが望ましい。 Here, the area setting unit includes position information of the imaging target on the captured image of the motion estimation target, and position information of an area obtained by dividing the own lane, the oncoming lane, and the roadside on the captured image of the motion estimation target. , The distance from the vanishing point to each pixel on the captured image of the motion estimation target, the depth distance of each pixel of the captured image of the motion estimation target, and the two-dimensional motion of the pixel of the captured image of the motion estimation target It is desirable to divide the captured image as the motion estimation target into a plurality of regions based on at least one of the estimated values of the vector sizes.
本発明に係る動き推定装置は、動き推定対象の撮像画像の画素毎に又は当該撮像画像を分割した領域毎に注目点の動きを推定する際の探索画像を適応的に設定しているので、撮像間隔の短い撮像画像間において見かけ上の動きの小さい遠方領域の撮像対象(物体等)に関しても、その動きを精度良く推定することができる。 Since the motion estimation apparatus according to the present invention adaptively sets a search image for estimating the motion of the attention point for each pixel of the captured image of the motion estimation target or for each region obtained by dividing the captured image, With respect to an imaging target (such as an object) in a distant area with a small apparent motion between captured images with a short imaging interval, the motion can be accurately estimated.
以下に、本発明に係る動き推定装置の実施例を図面に基づいて詳細に説明する。尚、この実施例によりこの発明が限定されるものではない。 Embodiments of a motion estimation device according to the present invention will be described below in detail with reference to the drawings. The present invention is not limited to the embodiments.
[実施例]
本発明に係る動き推定装置の実施例を図1から図6に基づいて説明する。
[Example]
An embodiment of a motion estimation apparatus according to the present invention will be described with reference to FIGS.
図1の符号1は、本実施例の動き推定装置を有している物体検出システムを示す。その物体検出システム1は、撮像した画像に基づいて自車両の周辺の物体や背景(空等)を検出し、その物体が動きのあるものなのか静止しているものなのかを判別可能なシステムである。よって、この物体検出システム1は、自車両の周辺を撮像する撮像装置10と、その撮像した撮像画像に基づいて物体検出のための画像処理を行う電子制御装置(以下、「画像処理ECU」という。)20と、を備える。この物体検出システム1においては、撮像装置10に加えて、後述する画像情報取得部21と画像情報記憶部22と距離情報生成部23と探索画像設定部24と注目点動き推定部25と3次元運動推定部26と撮像対象検出部27とが動き推定装置の構成として設けられている。特に、この例示では、その注目点動き推定部25と3次元運動推定部26と撮像対象検出部27とによって、撮像対象の動きを推定する動き推定部が構成される。
撮像装置10には、輝度画像と距離画像の取得が可能なものを用いる。ステレオカメラの左側カメラと右側カメラとで撮像された撮像画像は、それぞれ輝度値情報が含まれた画素の集合体であり、画素毎に輝度値情報を有する輝度画像として取得することができる。また、ステレオカメラは、左側カメラと右側カメラとでそれぞれに同一撮像領域内の撮像画像(輝度画像)を得ることができるので、そのそれぞれの撮像画像の情報から当該撮像領域内の画素毎の視差値情報を得ることができ、その視差値情報に基づいて距離画像を生成することができる。このため、この例示の撮像装置10には、右側カメラ11と左側カメラ12とを有するステレオカメラを利用する。その撮像画像は、モノクロでもカラーでもよい。また、撮像波長帯については、可視領域でも近赤外領域でもよい。また、その撮像装置10は、輝度画像と距離画像が取得できるものであればよい。このため、撮像装置10には、例えば、TOF(Time Of Flight)カメラ等の距離画像センサを用いてもよい。尚、以下においては、その輝度値情報を有する画像(撮像画像、輝度画像)のことを撮像画像と総称する。
As the
この撮像装置10は、右側カメラ11と左側カメラ12とでそれぞれに自車両の周辺の撮像対象を撮像して、その撮像領域の撮像画像の情報を時系列で(つまり撮像したフレーム毎に)画像処理ECU20へと出力する。その撮像対象とは、路面、区画線、立体物(他車両等の動的物体や建築物等の静的物体)、背景(空等)などである。その画像処理ECU20は、受信した撮像画像の情報を画像処理ECU20の画像情報取得部21に渡す。
The
画像情報取得部21は、その受信した撮像画像の情報を時系列で画像情報記憶部22に記憶させる。また、この画像情報取得部21は、その撮像画像の情報を右側カメラ11で撮像されたものと左側カメラ12で撮像されたものとが区別できるように画像情報記憶部22に記憶させる。つまり、その画像情報記憶部22には、その撮像画像の情報が撮像時間に関連付けて記憶させられている。その画像情報記憶部22とは、例えば、画像処理ECU20が有する一時記憶装置のことである。この画像情報記憶部22には、後述する物体の動きの推定に必要なフレーム数だけを記憶させればよい。このため、そのフレーム数を超えた場合には、不要になった撮像画像を撮像時間の古いものから順に消去するようバッファリングすればよい。画像情報取得部21は、受信した撮像画像の情報や画像情報記憶部22の撮像画像の情報を画像処理ECU20の距離情報生成部23と探索画像設定部24に渡す。
The image
距離情報生成部23は、撮像時間の同じ右側カメラ11と左側カメラ12のそれぞれの撮像画像の情報に基づいて前述した画素毎の視差値情報を算出し、この画素毎の視差値情報に基づいて各画素の奥行距離情報を算出して、撮像領域の各位置(各画素)の奥行距離を表した距離画像の生成を行う。よって、その距離画像の情報には、画素毎の奥行距離情報が含まれている。その距離画像の生成は、この技術分野における周知の方法によって行う。
The distance
ここで、奥行距離情報とは、撮像装置10から撮像画像内における撮像対象までの奥行の距離を表す情報のことである。その奥行距離の方向は、例えば撮像画像の水平方向(横方向)及び垂直方向(縦方向)を各々X座標及びY座標と定義した場合に、そのXY平面に直交する方向であり、かつ、撮像装置10の撮像方向において当該撮像装置10から遠方に向かって離れていく方向のことである。このため、撮像装置10には、少なくとも自車両の進行方向を撮像させる。その奥行距離情報の算出には、例えば、SGM法やELAS法等のdense stereo技術を用いればよい。
Here, the depth distance information is information indicating the depth distance from the
距離情報生成部23は、その奥行距離情報を有する距離画像の情報を画像処理ECU20の探索画像設定部24と3次元運動推定部26に渡す。
The distance
撮像画像上の撮像対象の動きを推定するに際しては、動き推定対象の撮像画像(以下、「推定対象画像」という。)上の注目点に対応する対応点を備えた撮像画像(以下、「探索画像」という。)を当該推定対象画像とは撮像時間の異なる撮像画像の中から探索する。その探索画像の探索は、原則として推定対象画像の全ての画素に対して行う。そして、この動き推定装置では、例えば後述するブロックマッチング法が適用される場合、その推定対象画像と探索画像との間で当該推定対象画像上の注目点の2次元の動きを推定する。尚、この例示では、最新の撮像画像を推定対象画像とする。また、対応点とは、探索画像における推定対象画像の注目点の移動元である。このため、推定対象画像と探索画像の撮像間隔に時間t0の開きがある場合には、その対応点の時間t0経過後の移動先が注目点となる。 When estimating the motion of the imaging target on the captured image, the captured image (hereinafter referred to as “search”) having a corresponding point corresponding to the point of interest on the captured image of the motion estimation target (hereinafter referred to as “estimation target image”). "Image")) is searched for from the captured images having a different imaging time from the estimation target image. In principle, the search image is searched for all the pixels of the estimation target image. In this motion estimation device, for example, when a block matching method described later is applied, the two-dimensional motion of the attention point on the estimation target image is estimated between the estimation target image and the search image. In this example, the latest captured image is the estimation target image. The corresponding point is a movement source of the attention point of the estimation target image in the search image. For this reason, when there is an opening of time t0 in the imaging interval between the estimation target image and the search image, the movement destination of the corresponding point after the time t0 has passed becomes the attention point.
ここで、自車両に対して遠方に存在している撮像対象は、例えば、移動中の動的物体であろうと、自車両の走行に伴い相対的な位置関係が変化する静的物体であろうと、自車両に対して遠方に存在しているほど自車両から見た見かけ上の動きが小さい。このため、このような遠方の撮像対象は、自車両の走行中に連続して撮像された2つの撮像画像間(フレーム間)において、自車両に対して遠方に存在しているほど注目点の動きが小さい。一方、自車両の近傍に存在している撮像対象は、そのような動的物体であろうと静的物体であろうと、自車両に対して近くに存在しているほど自車両から見た見かけ上の動きが大きい。このため、このような近傍の撮像対象は、自車両の走行中に連続して撮像された2つの撮像画像間において、自車両に対して近くに存在しているほど注目点の動きが大きい。よって、自車両の遠方の撮像対象は、自車両の近傍の撮像対象と比較して、自車両から遠く離れた場所に存在しているほど、動きの有無の推定が難しく、そして、動きがあるならば、その動きベクトルの大きさや方向の推定が難しい。 Here, the imaging target that exists far away from the host vehicle may be, for example, a moving dynamic object or a static object whose relative positional relationship changes as the host vehicle travels. The apparent movement as seen from the own vehicle is smaller as it is located farther from the own vehicle. For this reason, such a distant imaging target is more noticeable as it is located farther from the own vehicle between two captured images (between frames) continuously taken while the host vehicle is traveling. Small movement. On the other hand, the imaging target that is present in the vicinity of the host vehicle, whether it is a dynamic object or a static object, is more apparent from the host vehicle as it is closer to the host vehicle. The movement is big. For this reason, the movement of the attention point increases as the nearby imaging target is located closer to the host vehicle between two captured images continuously captured while the host vehicle is traveling. Therefore, it is more difficult to estimate the presence or absence of movement and the movement of an imaging object far away from the own vehicle is more distant from the own vehicle than the imaging object near the own vehicle. Then, it is difficult to estimate the size and direction of the motion vector.
例えば、図2には最新(時間t)の撮像画像を表しており、図3にはその1つ前(時間t−1)に撮像された撮像画像を表している。その2つの撮像画像間においては、遠方の車両C1(車両C1を表す画素に設定される注目点)と近傍の車両C2(車両C2を表す画素に設定される注目点)とを比較すると、近傍の車両C2の場合、その動きを推定できるだけの位置の違いが見受けられるが、遠方の車両C1の場合、その動きを推定できるだけの位置の違いの判別が難しい。尚、遠方の車両C1は、撮像画像上の消失点の近くに存在している。その消失点とは、撮像画像上における自車両の進行方向の無限遠点であり、見かけ上の動きが無い点のことである。 For example, FIG. 2 shows the latest captured image (time t), and FIG. 3 shows the captured image captured immediately before (time t−1). When the distant vehicle C1 (the attention point set in the pixel representing the vehicle C1) and the nearby vehicle C2 (the attention point set in the pixel representing the vehicle C2) are compared between the two captured images, However, in the case of a distant vehicle C1, it is difficult to discriminate the position difference that can estimate the movement. The distant vehicle C1 exists near the vanishing point on the captured image. The vanishing point is a point at infinity in the traveling direction of the host vehicle on the captured image and is a point where there is no apparent movement.
そこで、本実施例の画像処理ECU20の探索画像設定部24には、自車両(撮像装置10)と推定対象画像の画素との位置関係に基づいて、その画素毎に当該画素(注目点)に対応する対応点を備えた探索画像の設定を行わせる。つまり、この探索画像設定部24には、推定対象画像で動きの推定対象となる画素に対応付けた探索画像を当該画素毎に設定させる。
Therefore, the search
撮像対象の動きを推定する際に互いに比較される2つの撮像画像(推定対象画像と探索画像)の間では、その撮像間隔が広いほど、撮像対象の相対的な動き量が大きくなるので、その撮像対象における画素の2次元の動きベクトルの大きさや方向が推定し易くなる。このため、消失点やその付近に存在している見かけ上の動きの小さい遠方の撮像対象については、その動きを推定する上で、推定対象画像と探索画像の間の撮像間隔を広げることが望ましい。よって、探索画像設定部24には、推定対象画像の画素(注目点)の奥行距離情報に基づいて、この画素(注目点)が自車両(撮像装置10)に対して遠方に存在しているほど、その推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を当該画素(注目点)に対応付けた探索画像として設定させる。
Between the two captured images (estimation target image and search image) that are compared with each other when estimating the motion of the imaging target, the relative motion amount of the imaging target increases as the imaging interval increases. It becomes easy to estimate the size and direction of the two-dimensional motion vector of the pixel in the imaging target. For this reason, it is desirable to widen the imaging interval between the estimation target image and the search image for estimating the movement of a distant imaging target with a small apparent motion existing at or near the vanishing point. . Therefore, based on the depth distance information of the pixel (attention point) of the estimation target image, this pixel (attention point) exists in the search
一方、自車両の近くに存在している撮像対象については、推定対象画像と探索画像の間の撮像間隔を広げなくても、その間の見かけ上の動きが大きいので、動きを推定することができる。このため、探索画像設定部24には、推定対象画像の画素(注目点)の奥行距離情報に基づいて、この画素(注目点)が自車両(撮像装置10)の近くに存在しているほど、その推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を当該画素(注目点)に対応付けた探索画像として設定させる。
On the other hand, for an imaging target that exists near the host vehicle, the apparent motion between the estimation target image and the search image can be estimated without increasing the imaging interval between the estimation target image and the search image. . For this reason, in the search
例えば、この探索画像設定部24には、推定対象画像の画素における2次元の動きベクトルの相対的な大きさに応じて、この画素の動きの推定に際して当該画素に対応付ける探索画像(つまり当該画素が注目点となったときに当該推定対象画像に対応付ける探索画像)を画像情報記憶部22の過去の撮像画像の中から決めさせる。
For example, in the search
具体的に、この探索画像設定部24は、現在の推定対象画像に対する1フレーム前の撮像画像の各画素の動きの推定結果(2次元のオプティカルフロー)が未だ得られていない場合、この推定対象画像における各画素の2次元の動きベクトルの大きさを推定する。例えば、この探索画像設定部24は、その推定対象画像の画素毎に、その画素の奥行距離情報と自車両の運動量(例えば1フレーム前の撮像時から推定対象画像が撮像されるまでの自車両の移動方向及び移動量)とに基づいて当該画素の2次元の動きベクトルの大きさを推定する。尚、その推定の際には、その画素が表す撮像対象が静的物体や路面等の静止物であると仮定する。その画素の2次元の動きベクトルの大きさの推定値を求める際には、3次元運動推定部26によって推定された後述する3次元運動量を考慮に入れてもよい。
Specifically, the search
一方、この探索画像設定部24は、現在の推定対象画像に対する1フレーム前の撮像画像の各画素の2次元の動きの推定結果(2次元のオプティカルフロー)を注目点動き推定部25から取得している場合、その推定結果に基づいて、この推定対象画像における各画素の2次元の動きベクトルの大きさの推定値を得ることができる。
On the other hand, the search
ここで、画素の2次元の動きベクトルの大きさの推定値からは、この画素が推定対象画像上で自車両(撮像装置10)に対してどの程度の位置関係で存在しているのか予測できる。このため、探索画像設定部24は、推定対象画像の画素における2次元の動きベクトルの大きさの推定値を用いて、この画素の動きを推定する際に当該画素に対応付ける探索画像を設定することができる。この探索画像の設定は、推定対象画像の画素毎に行う。
Here, from the estimated value of the size of the two-dimensional motion vector of the pixel, it can be predicted how much the pixel exists in the estimation target image with respect to the own vehicle (imaging device 10). . For this reason, the search
ここでは、その画素の2次元の動きベクトルの大きさの推定値が大きくなるほど(つまり当該画素が自車両に対して近くに存在しているほど)、推定対象画像よりも撮像時間のより新しい撮像画像が探索画像として設定されるように、例えば、その推定値に対する撮像時間をステップ状に設定しておけばよい。尚、この場合には、撮像装置10の撮像間隔が一定であると仮定する。また、ここでは、その画素の2次元の動きベクトルの大きさの推定値が大きくなるほど撮像時間のより新しい撮像画像が探索画像として設定されるように、その画素の2次元の動きベクトルの大きさの関数として定義してもよい。
Here, the larger the estimated value of the size of the two-dimensional motion vector of the pixel (that is, the closer the pixel is to the host vehicle), the newer the imaging time than the estimation target image. For example, the imaging time for the estimated value may be set stepwise so that the image is set as the search image. In this case, it is assumed that the imaging interval of the
例えば、図4には、前述した図2の時間tの撮像画像(推定対象画像)の3つ前(時間t−3)に撮像された撮像画像を表している。探索画像設定部24は、推定対象画像上で近傍の車両C2を表す各画素について、画像情報記憶部22に記憶されている図3の時間t−1の撮像画像を探索画像として設定する。一方、推定対象画像上で遠方の車両C1を表す各画素については、画像情報記憶部22に記憶されている図4の時間t−3の撮像画像を探索画像として設定する。
For example, FIG. 4 shows a captured image captured three times before (time t−3) the captured image (estimation target image) at time t in FIG. 2 described above. The search
尚、撮像画像上には、舗装したてのアスファルト、空、新築建造物の壁、陰で黒くなっているところ等のように、広い領域に渡ってテクスチャ(模様)の無い撮像対象が存在する場合もある。そして、そのような領域においては、画素同士の区別を付けることが難しいので、それぞれの画素の動きの推定が上手くいかない可能性がある。このため、探索画像設定部24は、そのような動きの推定を妨げるテクスチャの無い広い領域のそれぞれの画素について、探索画像の設定を実施しないよう構成してもよい。これにより、その探索画像が設定されていない推定対象画像の画素については、注目点動き推定部25による動きの推定が省略されることになる。よって、その際には、演算処理の負荷の軽減が図られる。更に、探索画像設定部24は、探索画像を決める際の精度を高めるために、推定対象画像の画素における2次元の動きベクトルの相対的な大きさと共に、その画素の奥行距離情報を利用してもよい。
In addition, on the picked-up image, there are picked up objects having no texture (pattern) over a wide area, such as freshly paved asphalt, the sky, the wall of a new building, and a blackened area under the shade. In some cases. In such a region, since it is difficult to distinguish between pixels, there is a possibility that the motion of each pixel cannot be estimated well. For this reason, the search
この探索画像設定部24は、推定対象画像の画素と探索画像との対応付け情報を当該推定対象画像の画素毎に画像処理ECU20の注目点動き推定部25に送る。
The search
注目点動き推定部25は、推定対象画像上で注目点を設定し、その注目点に対応付けられた探索画像の特定を対応付け情報に基づいて行う。そして、この注目点動き推定部25は、その特定した探索画像を画像情報記憶部22の撮像画像の中から読み込み、その注目点の2次元の動きを推定する。尚、この注目点動き推定部25には、対応付け情報の無い推定対象画像の画素を注目点に設定させない。
The attention point
注目点動き推定部25は、この技術分野における周知の方法で注目点の2次元の動きを推定する。例えば、その注目点の動きの推定には、勾配法やブロックマッチング法を用いることができる。
The attention point
勾配法を適用する場合には、下記の式1のオプティカルフロー拘束方程式を局所領域内の各画素から構成する。その局所領域は、注目点を含む所定領域のことであり、注目点の画素と当該注目点の周囲の複数の画素とを備える。この局所領域は、例えば、N×Nの画素数又はM×Nの画素数(N,M:整数)の矩形領域とする。そして、この従来の勾配法においては、その画素毎の拘束方程式を連立させた式2の連立方程式を解くことで、注目点の動きを推定する。
When the gradient method is applied, the optical flow constraint equation of the following
撮像画像上の注目点の画素(注目画素)の座標(x,y)における画素の時間tにおける輝度をI(x,y,t)とする。「u(=dx/dt)」は、座標(x,y)における画素の動きベクトルのx成分である。「v(=dy/dt)」は、座標(x,y)における画素の動きベクトルのy成分である。「Ix(=∂I/∂x)」や「Iy(=∂I/∂y)」は、空間的な輝度勾配を表している。「It(=∂I/∂t)」は、時間的な輝度勾配を表している。式2の「f」と「A」は、各々下記の式3,4で表される。 Let I (x, y, t) be the luminance at the time t of the pixel at the coordinates (x, y) of the pixel of interest (pixel of interest) on the captured image. “U (= dx / dt)” is the x component of the motion vector of the pixel at the coordinates (x, y). “V (= dy / dt)” is the y component of the motion vector of the pixel at the coordinates (x, y). “I x (= ∂I / ∂x)” and “I y (= ∂I / ∂y)” represent a spatial luminance gradient. “I t (= ∂I / ∂t)” represents a temporal luminance gradient. “F” and “A” in Expression 2 are represented by the following Expressions 3 and 4, respectively.
ブロックマッチング法では、時間tの画像(撮像画像又は距離画像)と時間t−1の画像(時間tの1つ前に撮像された撮像画像又は距離画像)との間において、時間tの画像(撮像画像又は距離画像)の注目点に対応する時間t−1の画像内(撮像画像内又は距離画像内)の対応点を直接的に探索する。このブロックマッチング法においては、その対応点の確からしさについて下記の式5又は式6を用いて評価する。 In the block matching method, an image at time t (an image captured at the time t) (an image captured at the time t before the time t or an image captured at the time t) (an image captured at the time t before the time t) (an image captured at the time t). A corresponding point in the image (in the captured image or in the distance image) corresponding to the attention point in the captured image or the distance image is directly searched. In this block matching method, the probability of the corresponding point is evaluated using the following formula 5 or formula 6.
図5は、式5のブロックマッチング法について説明する図である。ここでは、式5のSADが最小になる(u,v)を注目点の動き(2次元のオプティカルフロー)として推定する。 FIG. 5 is a diagram for explaining the block matching method of Equation 5. Here, (u, v) at which the SAD of Equation 5 is minimized is estimated as the movement of the point of interest (two-dimensional optical flow).
注目点動き推定部25は、動きの推定対象となった注目点の2次元の動きの推定結果{2次元のオプティカルフロー(2次元の動きベクトルの大きさと方向)}を画像処理ECU20の3次元運動推定部26に送る。
The point-of-interest
3次元運動推定部26は、推定対象画像の画素(注目点)の奥行距離情報と当該画素の2次元の動きの推定結果とに基づいて、この画素の3次元空間における運動量(3次元運動量)を推定する。その3次元運動量とは、その画素の3次元空間における動きベクトルの大きさと方向のことである。3次元運動推定部26は、この3次元運動量の推定を、2次元のオプティカルフローと視差値の両方が求められている全ての画素に対して行う。この3次元運動推定部26は、その3次元運動量の推定結果を画像処理ECU20の撮像対象検出部27に送る。
Based on the depth distance information of the pixel (target point) of the estimation target image and the estimation result of the two-dimensional motion of the pixel, the three-dimensional
撮像対象検出部27は、推定対象画像の画素の奥行距離情報と当該画素の3次元運動量の推定結果とに基づいて、その推定対象画像上で撮像対象毎の区分けを行う。具体的には、隣接している画素間で奥行距離と3次元運動量とが共に同等又は類似のものを同一グループとし、これを推定対象画像の各画素に対して行うことによって、撮像対象毎の区分けを行う。これにより、この撮像対象検出部27は、その推定対象画像の各撮像対象を推定対象画像上における自車両に対する位置と相対速度の情報と共に検出することになる。画像処理ECU20においては、その検出結果を後段の制御システムに送る。その制御システムにおいては、その検出結果を自車両との衝突判定や衝突回避ルートの作成等に利用する。
The imaging
図6には、この動き推定装置の演算処理動作に関するフローチャートを示している。 FIG. 6 shows a flowchart relating to the arithmetic processing operation of the motion estimation apparatus.
画像情報取得部21は、撮像領域内の各撮像対象が映された撮像画像(輝度画像)の情報を撮像装置10から取得する(ステップST1)。この画像情報取得部21は、撮像装置10から輝度画像の情報を受信する度に、その情報を画像情報記憶部22へと撮像時間順に時系列で一時記憶させると共に(ステップST2)、この情報を距離情報生成部23と探索画像設定部24に出力する。
The image
距離情報生成部23では、その輝度画像が有する各画素の輝度値情報に基づいて、その各画素の奥行距離情報を算出し、この画素毎の奥行距離情報を有する距離画像を生成する(ステップST3)。
The distance
探索画像設定部24では、最新の撮像画像(推定対象画像)の画素における2次元の動きベクトルの大きさの推定値に基づいて、この画素の動きを推定する際に当該画素に対応付ける探索画像を設定する(ステップST4)。この設定は、原則として推定対象画像の各画素に対して行う。
The search
注目点動き推定部25は、推定対象画像の各画素の中から注目点を設定し(ステップST5)、その注目点に対応付けられた探索画像を画像情報記憶部22の撮像画像の中から読み込んで、その注目点の2次元の動きを推定する(ステップST6)。
The attention point
注目点動き推定部25は、推定対象画像上で動きの推定対象となる全ての注目点(つまり推定対象画像の全画素から前述した対応付け情報が無いものを除いた画素)の動きの推定を終えたのか否かを判定する(ステップST7)。注目点動き推定部25は、推定対象となる全ての注目点の動きの推定が済んでいない場合、ステップST5に戻り、別の注目点に対する動きの推定を行う。そして、推定対象となる全ての注目点の動きの推定を終えた場合、3次元運動推定部26は、その各注目点について、その奥行距離情報と2次元の動きの推定結果に基づき3次元運動量を推定する(ステップST8)。
The point-of-interest
撮像対象検出部27は、その各注目点の奥行距離情報と当該各注目点の3次元運動量の推定結果とに基づいて、推定対象画像上で撮像対象毎の区分けを行い、この推定対象画像上の各撮像対象を検出する(ステップST9)。画像処理ECU20においては、その各撮像対象の自車両に対する位置と相対速度の情報を後段の制御システムに出力する(ステップST10)。
The imaging
このように、本実施例の動き推定装置は、推定対象画像の画素毎に、その画素の推定対象画像上おける自車両との距離に基づいて、この画素の動きを推定する際に当該画素に対応付ける探索画像を適応的に設定する。つまり、この動き推定装置では、推定対象画像の画素が自車両(撮像装置10)の近くに存在しているほど、その推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を当該画素に対応付けた探索画像として設定する。一方、この動き推定装置では、推定対象画像の画素が自車両(撮像装置10)に対して遠方に存在しているほど、その推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を当該画素に対応付けた探索画像として設定する。このため、この動き推定装置は、撮像間隔の短い撮像画像間において見かけ上の動きの小さい遠方領域の撮像対象に関しても、その動きを精度良く推定することができる。
As described above, the motion estimation device according to the present exemplary embodiment applies a pixel to each pixel of the estimation target image when estimating the motion of the pixel based on the distance from the own vehicle on the estimation target image of the pixel. The search image to be associated is set adaptively. That is, in this motion estimation apparatus, the closer the pixel of the estimation target image is to the host vehicle (imaging apparatus 10), the closer the captured image of the image
[変形例]
本変形例の動き推定装置は、前述した実施例の動き推定装置に対して以下の点を変更したものである。図7には、本変形例の動き推定装置を有する物体検出システム2を示している。この物体検出システム2は、実施例の物体検出システム1において画像処理ECU20を画像処理ECU120に置き換えたものである。
[Modification]
The motion estimation apparatus according to this modification is obtained by changing the following points from the motion estimation apparatus according to the above-described embodiment. FIG. 7 shows an object detection system 2 having a motion estimation device of this modification. This object detection system 2 is obtained by replacing the
画像処理ECU120は、実施例の画像処理ECU20と同じ画像情報取得部21と画像情報記憶部22と距離情報生成部23と探索画像設定部24と注目点動き推定部25と3次元運動推定部26と撮像対象検出部27と備えると共に、道路領域認識部28と路側領域認識部29と消失点検出部30と領域設定部31とを備えたものである。本変形例においては、これらの構成を本変形例の動き推定装置が備える。但し、本変形例の探索画像設定部24と注目点動き推定部25と3次元運動推定部26は、その新たな構成に合わせて後述するように変更している。また、本変形例の撮像対象検出部27については、その検出結果(推定対象画像の各撮像対象の検出結果、その各撮像対象の自車両に対する位置と相対速度の情報)を探索画像設定部24に送る。
The
道路領域認識部28と路側領域認識部29と消失点検出部30と領域設定部31は、距離情報生成部23と探索画像設定部24との間に介在させたものであり、その演算処理の結果を探索画像設定部24に送る。
The road
道路領域認識部28は、推定対象画像上(各撮像対象が3次元的に認識されている場合には、その3次元空間上)で道路領域を認識し、その道路領域を自車線領域と対向車線領域とに分割するものである。
The road
その道路領域の認識は、この技術分野における周知の方法で行えばよい。例えば、道路領域認識部28は、距離情報生成部23から受け取った推定対象画像の各画素の奥行距離情報に基づいて、その推定対象画像上の道路領域を判別することができる。尚、道路領域を認識する際には、その推定対象画像(輝度画像)の輝度値情報を利用してもよい。
The recognition of the road area may be performed by a well-known method in this technical field. For example, the road
自車線領域とは、推定対象画像の道路領域上で自車両の走行中の車線が占めている領域である。例えば、道路領域認識部28は、その道路領域上で自車両と同等の方向に動いている撮像対象(つまり自車両に対する相対運動量が小さい撮像対象)が検出された場合、その撮像対象が自車両と同じ車線を走行している他車両等であると判断して、この撮像対象が存在している領域を自車線領域と判定することができる。
The own lane region is a region occupied by the lane in which the host vehicle is traveling on the road region of the estimation target image. For example, when an imaging target moving in the same direction as the host vehicle on the road region (that is, an imaging target with a small relative momentum with respect to the host vehicle) is detected, the road
対向車線領域とは、推定対象画像の道路領域上で対向車の走行する車線が占めている領域である。例えば、道路領域認識部28は、その道路領域上で自車両と逆方向に動いている撮像対象(つまり自車両に対する相対運動量が大きい撮像対象)が検出された場合、その撮像対象が対向車線を走行している対向車等であると判断して、この撮像対象が存在している領域を対向車線領域と判定する。
The oncoming lane area is an area occupied by the lane in which the oncoming vehicle travels on the road area of the estimation target image. For example, when an imaging target moving in the opposite direction to the own vehicle (that is, an imaging target having a large relative momentum with respect to the own vehicle) is detected on the road region, the road
尚、道路領域認識部28は、白線を検知することができた場合、その白線に基づいて自車線領域と対向車線領域とを識別することができる。
When the road
路側領域認識部29は、推定対象画像上(各撮像対象が3次元的に認識されている場合には、その3次元空間上)で路側領域を認識するものである。路側領域とは、道路の両脇に占める領域であり、歩道、建築物や植物等の静的物体などの存在している領域である。その歩道や静的物体などの静止物は、自車両の運動量に相当する相対運動量(つまり、自車両の移動方向とは逆向きの当該自車両と同じ移動量)を持つ。このため、路側領域認識部29は、例えば、推定対象画像上で自車両の運動量に相当する相対運動量を持つ撮像対象)が検出された場合、その撮像対象が存在している領域を路側領域と判定する。ここで、この路側領域では、自車両の速度に基づいて、各画素の2次元の動きベクトルの大きさを推定してもよい。尚、推定対象画像上では、空等の背景も自車両の運動量に相当する相対運動量を持つ。このため。路側領域認識部29には、背景についても路側領域と同等の領域として認識させてもよい。
The roadside
消失点検出部30は、推定対象画像上(各撮像対象が3次元的に認識されている場合には、その3次元空間上)で消失点を検出するものである。この消失点検出部30は、例えば、推定対象画像の各画素の奥行距離情報や輝度値情報、更には道路領域認識部28や路側領域認識部29の認識結果に基づいて、その推定対象画像上の道路の白線や路側領域の建築物の稜線等の直線成分を抽出する。そして、この消失点検出部30は、それらの直線成分を延長した交点又は当該交点に相当する点を求め、この交点等を消失点として検出する。また、この消失点検出部30は、時系列で得られた各撮像画像を用いて消失点の検出を行ってもよい。例えば、撮像装置10が自車両の前方を監視する場合には、一般的に撮像画像の中央部分やその付近に消失点が現れる。そして、前述したように、消失点やその付近においては、撮像画像間での見かけ上の動きが小さくなる。
The vanishing
領域設定部31は、撮像対象検出部27で検出された推定対象画像上における撮像対象の位置情報と、道路領域認識部28と路側領域認識部29とで認識された領域(自車線領域と対向車線領域と路側領域)の位置情報と、推定対象画像上における消失点から各画素までの距離と、推定対象画像の各画素の奥行距離と、その各画素の2次元の動きベクトルの大きさの推定値と、の内の少なくとも1つに基づいて、推定対象画像を複数の領域に分割する。具体的には、各画素の消失点からの距離と各画素の奥行距離と各画素の2次元の動きベクトルの大きさの推定値とに基づいて、撮像対象毎の領域と自車線領域と対向車線領域と路側領域とを更に下記の1から第3の領域に分割する。
The
第1領域は、自車両(撮像装置10)に対する遠方領域であり、消失点とその周辺の領域である。消失点の周辺の領域(つまり消失点からの距離)は、例えば、連続して撮像された2つの撮像画像において、見かけ上の動きが所定値よりも小さい領域とする。その所定値は、例えば、動きを上手く推定できない大きさにする。第2領域は、自車両(撮像装置10)に対する近傍領域であり、自車両(撮像装置10)に対する奥行距離が所定距離以下の領域である。その所定距離は、連続して撮像された2つの撮像画像において、見かけ上の動きが明確であり、動きを上手く推定できる距離にする。例えば、この第2領域は、推定対象画像上の遠方領域を除いた残りの領域にしてもよい。第3領域は、推定対象画像で画素の2次元の動きベクトルの大きさが推定できた後で設定される領域であり、その推定値に基づき同じ撮像対象であると推定できる画素の集合した領域である。つまり、この第3領域は、その推定値が同等の大きさでかつ略同等の大きさの領域のことである。第3領域の特定が可能な場合には、この第3領域が第1領域や第2領域上に存在していたとしても、第1領域や第2領域ではなく第3領域として設定する。 The first region is a distant region with respect to the host vehicle (imaging device 10), and is a vanishing point and a region around it. The area around the vanishing point (that is, the distance from the vanishing point) is, for example, an area in which the apparent movement is smaller than a predetermined value in two captured images that are continuously captured. The predetermined value is, for example, a size that cannot be used to estimate the motion well. The second region is a neighborhood region with respect to the host vehicle (imaging device 10), and is a region whose depth distance to the host vehicle (imaging device 10) is equal to or less than a predetermined distance. The predetermined distance is a distance at which the apparent movement is clear and the movement can be estimated well in two captured images that are successively captured. For example, this second region may be the remaining region excluding the far region on the estimation target image. The third region is a region that is set after the size of the two-dimensional motion vector of the pixel can be estimated in the estimation target image, and is a region where the pixels that can be estimated to be the same imaging target based on the estimated value It is. That is, the third region is a region having an estimated value that is the same size and substantially the same size. When the third area can be specified, even if the third area exists on the first area or the second area, the third area is set as the third area instead of the first area or the second area.
実施例の探索画像設定部24は、推定対象画像のそれぞれの画素毎に探索画像の設定を行う。これに対して、本変形例の探索画像設定部24は、その複数に分割された推定対象画像の領域毎に探索画像の設定を行う。
The search
例えば、探索画像設定部24には、第1領域の場合、第2領域と比べて、推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を第1領域に対応付けた探索画像として設定させる。換言するならば、第2領域の場合には、第1領域と比べて、推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を第2領域に対応付けた探索画像として設定させる。つまり、探索画像設定部24は、自車両に対して遠方に存在している領域ほど、推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を当該領域に対応付けた探索画像として設定する一方、自車両の近くに存在している領域ほど、推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を当該領域に対応付けた探索画像として設定する。また、探索画像設定部24は、第3領域の場合、この第3領域に関わる2次元の動きベクトルの大きさの推定値を求めたときと同じ撮像間隔で探索画像を設定する。つまり、第3領域の場合には、その撮像間隔だけ推定対象画像の撮像時からより離れた画像情報記憶部22の撮像画像を第3領域に対応付けた探索画像として設定させる。
For example, in the search
探索画像設定部24は、道路領域認識部28及び路側領域認識部29で認識された領域(自車線領域と対向車線領域と路側領域)の位置情報と各画素の奥行距離情報とに基づいて、次のように探索画像を設定してもよい。例えば、探索画像設定部24には、自車線領域の場合、奥行距離が同等であるならば、対向車線領域の場合と比較して、推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を探索画像として設定させる。
The search
探索画像設定部24は、推定対象画像上で設定された領域と探索画像との対応付け情報を当該領域毎に注目点動き推定部25に送る。
The search
本変形例の注目点動き推定部25は、推定対象画像上で注目点を設定し、その注目点が含まれた領域に対応付けられた探索画像の特定を対応付け情報に基づいて行う。そして、この注目点動き推定部25は、その特定した探索画像を画像情報記憶部22の撮像画像の中から読み込み、その注目点の2次元の動きを推定する。尚、この注目点動き推定部25には、対応付け情報の無い推定対象画像の画素を注目点に設定させない。
The attention point
本変形例の3次元運動推定部26は、実施例と同じように、推定対象画像の各画素の3次元運動量を推定する。そして、この3次元運動推定部26は、探索画像設定部24の設定した領域毎に3次元運動量を平滑化する。
The three-dimensional
図8には、この動き推定装置の演算処理動作に関するフローチャートを示している。 FIG. 8 shows a flowchart relating to the arithmetic processing operation of this motion estimation apparatus.
本変形例では、実施例と同じように、撮像画像(輝度画像)の情報を撮像装置10から取得し(ステップST11)、これを時系列で画像情報記憶部22に一時記憶させる(ステップST12)。また、本変形例では、実施例と同じように、その撮像画像(輝度画像)に基づいて距離画像を生成する(ステップST13)。
In the present modification, as in the embodiment, information of the captured image (luminance image) is acquired from the imaging device 10 (step ST11), and is temporarily stored in the image
本変形例においては、消失点検出部30が推定対象画像上の消失点を検出し(ステップST14)、かつ、領域設定部31が推定対象画像を複数の領域に分割する(ステップST15)。
In this modification, the vanishing
探索画像設定部24は、その領域に対応付ける探索画像を領域毎に設定する(ステップST16)。
The search
注目点動き推定部25は、推定対象画像の各画素の中から注目点を設定し(ステップST17)、その注目点が含まれた領域に対応付けられた探索画像を画像情報記憶部22の撮像画像の中から読み込んで、その注目点の2次元の動きを推定する(ステップST18)。
The attention point
注目点動き推定部25は、推定対象画像上で動きの推定対象となる全ての注目点(つまり推定対象画像の全画素から前述した対応付け情報が無いものを除いた画素)の動きの推定を終えたのか否かを判定する(ステップST19)。注目点動き推定部25は、推定対象となる全ての注目点の動きの推定が済んでいない場合、ステップST17に戻り、別の注目点に対する動きの推定を行う。そして、推定対象となる全ての注目点の動きの推定を終えた場合、3次元運動推定部26は、その各注目点について、その奥行距離情報と2次元の動きの推定結果に基づき3次元運動量を推定する(ステップST20)。その際、この3次元運動推定部26は、その3次元運動量を領域毎に平滑化する。
The point-of-interest
撮像対象検出部27は、その各注目点の奥行距離情報と当該各注目点の3次元運動量の推定結果とに基づいて、推定対象画像上で撮像対象毎の区分けを行い、この推定対象画像上の各撮像対象を検出する(ステップST21)。画像処理ECU120においては、その各撮像対象の自車両に対する位置と相対速度の情報を後段の制御システムに出力する(ステップST22)。
The imaging
このように、本変形例の動き推定装置は、推定対象画像を所定条件の下で複数に分割し、その領域毎に探索画像を適応的に設定する。このため、この動き推定装置は、撮像間隔の短い撮像画像間において見かけ上の動きの小さい遠方領域の撮像対象に関しても、その動きを精度良く推定することができる。また、この動き推定装置は、推定した3次元運動量を領域毎に平滑化するので、動きの推定精度の分散を小さくすることができる。また、この動き推定装置は、そのような平滑化によって、奥行距離情報に基づいて動きを直接推定できなかった画素についても、その周辺の画素の情報から動きを推定することができるので、動きが推定できない画素の数量を減らし、領域内で密度の高い動きの推定結果を得ることができる。また、この動き推定装置は、実施例のように画素単位で探索画像を切り替えていくものと比較して、同一領域内の場合、その領域内の各画素の動きを推定するに際して同じ探索画像を用いればよいので、演算処理時間や演算コストの低減が可能になる。 As described above, the motion estimation apparatus according to the present modification divides the estimation target image into a plurality of parts under a predetermined condition, and adaptively sets a search image for each region. For this reason, this motion estimation apparatus can accurately estimate the motion of an imaging target in a distant region with a small apparent motion between captured images with a short imaging interval. In addition, since this motion estimation device smoothes the estimated three-dimensional momentum for each region, it is possible to reduce the variance of motion estimation accuracy. In addition, the motion estimation apparatus can estimate the motion from the information of the surrounding pixels even for pixels for which the motion could not be directly estimated based on the depth distance information by such smoothing. It is possible to reduce the number of pixels that cannot be estimated and obtain a motion estimation result with high density in the region. In addition, this motion estimation device compares the search image for each pixel in the same region when estimating the motion of each pixel in the same region as compared with the case where the search image is switched in units of pixels as in the embodiment. Therefore, it is possible to reduce calculation processing time and calculation cost.
1,2 物体検出システム
10 撮像装置
20,120 画像処理ECU
21 画像情報取得部
22 画像情報記憶部
23 距離情報生成部
24 探索画像設定部
25 注目点動き推定部
26 3次元運動推定部
27 撮像対象検出部
28 道路領域認識部
29 路側領域認識部
30 消失点検出部
31 領域設定部
DESCRIPTION OF
DESCRIPTION OF
Claims (4)
前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、
前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、
動き推定対象の前記撮像画像の画素が自車両に対して遠方に存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する一方、前記動き推定対象の撮像画像の前記画素が自車両の近くに存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する探索画像設定部と、
前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点の画素に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、
を備えることを特徴とした動き推定装置。 An imaging device that images an imaging region around the host vehicle and outputs a captured image that is an aggregate of pixels including luminance value information in time series;
An image information storage unit for storing information of the captured image in association with an imaging time;
A distance information generator that calculates depth distance information from the imaging device to pixels of the captured image based on luminance value information of the captured image;
As the pixels of the captured image that is the target of motion estimation are located farther from the host vehicle, the captured image of the image information storage unit that is further away from the captured image of the target of motion estimation is the imaging time. While set as a search image associated with the pixel, the closer the pixel of the captured image of the motion estimation target is to the vehicle, the closer the imaging time is to the captured image of the motion estimation target A search image setting unit that sets the captured image of the image information storage unit as a search image associated with the pixel;
A pixel of the captured image of the motion estimation target is set as a point of interest for each pixel, a corresponding point corresponding to the point of interest is searched from the search image associated with the pixel of the point of interest, and the point of interest A motion estimator for estimating motion;
A motion estimation apparatus comprising:
前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、
前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、
動き推定対象の前記撮像画像を複数の領域に分割する領域設定部と、
自車両に対して遠方に存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する一方、自車両の近くに存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する探索画像設定部と、
前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点が含まれた前記領域に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、
を備えることを特徴とした動き推定装置。 An imaging device that images an imaging region around the host vehicle and outputs a captured image that is an aggregate of pixels including luminance value information in time series;
An image information storage unit for storing information of the captured image in association with an imaging time;
A distance information generator that calculates depth distance information from the imaging device to pixels of the captured image based on luminance value information of the captured image;
An area setting unit that divides the captured image of the motion estimation target into a plurality of areas;
The search image that associates the captured image of the image information storage unit that is more distant from the captured image of the motion estimation target in the region farther away from the host vehicle with the region. On the other hand, the search that associates the captured image of the image information storage unit with the region closer to the motion estimation target in the image information storage unit, the closer to the region that is present near the host vehicle A search image setting unit to be set as an image;
A pixel of the captured image of the motion estimation target is set as a point of interest for each pixel, and a corresponding point corresponding to the point of interest is searched from the search image associated with the region including the point of interest. A motion estimation unit for estimating the motion of the attention point;
A motion estimation apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014124793A JP2016004446A (en) | 2014-06-17 | 2014-06-17 | Motion estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014124793A JP2016004446A (en) | 2014-06-17 | 2014-06-17 | Motion estimation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016004446A true JP2016004446A (en) | 2016-01-12 |
Family
ID=55223669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014124793A Pending JP2016004446A (en) | 2014-06-17 | 2014-06-17 | Motion estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016004446A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020088840A (en) * | 2019-04-11 | 2020-06-04 | アースアイズ株式会社 | Monitoring device, monitoring system, monitoring method, and monitoring program |
WO2020111053A1 (en) * | 2018-11-28 | 2020-06-04 | アースアイズ株式会社 | Monitoring device, monitoring system, monitoring method, and monitoring program |
JP2020204804A (en) * | 2019-06-14 | 2020-12-24 | トヨタ自動車株式会社 | Image recognition device |
JP2022523319A (en) * | 2019-02-01 | 2022-04-22 | テスラ,インコーポレイテッド | Generating ground truth for machine learning from time series elements |
WO2023127124A1 (en) * | 2021-12-28 | 2023-07-06 | 日本電気株式会社 | Imaging system, imaging device, imaging method, and recording medium |
JP2023098545A (en) * | 2021-12-28 | 2023-07-10 | 日本電気株式会社 | Imaging system, imaging method, and computer program |
WO2024154223A1 (en) * | 2023-01-17 | 2024-07-25 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
-
2014
- 2014-06-17 JP JP2014124793A patent/JP2016004446A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020111053A1 (en) * | 2018-11-28 | 2020-06-04 | アースアイズ株式会社 | Monitoring device, monitoring system, monitoring method, and monitoring program |
JP2020088688A (en) * | 2018-11-28 | 2020-06-04 | アースアイズ株式会社 | Monitoring device, monitoring system, monitoring method, and monitoring program |
US12223428B2 (en) | 2019-02-01 | 2025-02-11 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
JP2022523319A (en) * | 2019-02-01 | 2022-04-22 | テスラ,インコーポレイテッド | Generating ground truth for machine learning from time series elements |
JP7467485B2 (en) | 2019-02-01 | 2024-04-15 | テスラ,インコーポレイテッド | Generating ground truth for machine learning from time series elements |
JP2020088840A (en) * | 2019-04-11 | 2020-06-04 | アースアイズ株式会社 | Monitoring device, monitoring system, monitoring method, and monitoring program |
JP7176478B2 (en) | 2019-06-14 | 2022-11-22 | トヨタ自動車株式会社 | Image recognition device |
US11507833B2 (en) | 2019-06-14 | 2022-11-22 | Toyota Jidosha Kabushiki Kaisha | Image recognition apparatus |
JP2020204804A (en) * | 2019-06-14 | 2020-12-24 | トヨタ自動車株式会社 | Image recognition device |
WO2023127124A1 (en) * | 2021-12-28 | 2023-07-06 | 日本電気株式会社 | Imaging system, imaging device, imaging method, and recording medium |
JP2023098545A (en) * | 2021-12-28 | 2023-07-10 | 日本電気株式会社 | Imaging system, imaging method, and computer program |
JP7371762B1 (en) * | 2021-12-28 | 2023-10-31 | 日本電気株式会社 | Imaging system, imaging device, imaging method, and recording medium |
JP7371712B2 (en) | 2021-12-28 | 2023-10-31 | 日本電気株式会社 | Imaging system, imaging method, and computer program |
WO2024154223A1 (en) * | 2023-01-17 | 2024-07-25 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016004446A (en) | Motion estimation device | |
US9836657B2 (en) | System and method for periodic lane marker identification and tracking | |
JP5320828B2 (en) | Pedestrian detection device and pedestrian detection method | |
JP5714940B2 (en) | Moving body position measuring device | |
JP2006105661A (en) | Method for estimating plane by stereo image | |
JP5267596B2 (en) | Moving body detection device | |
JP4553072B1 (en) | Image integration apparatus and image integration method | |
JP5999127B2 (en) | Image processing device | |
US9117115B2 (en) | Exterior environment recognition device and exterior environment recognition method | |
JP5075672B2 (en) | Object detection apparatus and method | |
US20150367781A1 (en) | Lane boundary estimation device and lane boundary estimation method | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
JP2004032460A (en) | Image processing apparatus and method therefor | |
JP6524529B2 (en) | Building limit judging device | |
US12118801B2 (en) | Object recognition device | |
JP2009053818A (en) | Image processor and method thereof | |
JP2007316685A (en) | Traveling path boundary detection device and traveling path boundary detection method | |
JP2007249257A (en) | Apparatus and method for detecting movable element | |
JP4067340B2 (en) | Object recognition device and object recognition method | |
JP5369921B2 (en) | Object detection apparatus and object detection method | |
JP2004280194A (en) | Forward monitor and method therefor | |
JP2009180661A (en) | Distance measuring device and distance measuring method | |
JP2016004382A (en) | Motion information estimation device | |
JP4575315B2 (en) | Object detection apparatus and method | |
JP6416654B2 (en) | White line detector |