[go: up one dir, main page]

JP2016004446A - Motion estimation device - Google Patents

Motion estimation device Download PDF

Info

Publication number
JP2016004446A
JP2016004446A JP2014124793A JP2014124793A JP2016004446A JP 2016004446 A JP2016004446 A JP 2016004446A JP 2014124793 A JP2014124793 A JP 2014124793A JP 2014124793 A JP2014124793 A JP 2014124793A JP 2016004446 A JP2016004446 A JP 2016004446A
Authority
JP
Japan
Prior art keywords
image
motion estimation
captured image
pixel
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014124793A
Other languages
Japanese (ja)
Inventor
嘉修 竹前
Kashu Takemae
嘉修 竹前
清澄 城殿
Kiyosumi Shirodono
清澄 城殿
史也 一野
Fumiya Ichino
史也 一野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014124793A priority Critical patent/JP2016004446A/en
Publication of JP2016004446A publication Critical patent/JP2016004446A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve motion estimation accuracy for an object in a distant area.SOLUTION: A motion estimation device comprises: an imaging device 10 outputting picked-up images (luminance images) in time series; an image information storage unit 22 storing information on the picked-up images so as to be associated with imaging time; a distance information generation unit 23 calculating depth distance information from the imaging device 10 to pixels of each picked-up image; a search image setting unit 24 setting the picked-up image farther from the picked-up image serving as a motion estimation object as a search image corresponding to the pixels of the picked-up image serving as the motion estimation object if the pixels are present farther from an own vehicle, and setting the picked-up image closer in the imaging time to the picked-up image serving as the motion estimation object as the search image corresponding to the pixels of the picked-up image serving as the motion estimation object if the pixels are present closer to the own vehicle; and a point-of-interest estimation unit 25 and a three-dimensional motion estimation unit 26 setting each of the pixels of the picked-up image serving as the motion estimation object as a point of interest, searching a corresponding point corresponding to the point of interest from onto the search image corresponding to the pixel as the point of interest, and estimating a motion of the point of interest.

Description

本発明は、撮像した画像に基づいて自車両の周辺の物体の動きを推定する動き推定装置に関する。   The present invention relates to a motion estimation device that estimates the motion of an object around a host vehicle based on a captured image.

従来、この種の動き推定装置が知られている。例えば、下記の特許文献1には、ステレオカメラで撮像した時系列画像から、対応点探索処理によって自車両の周辺の対象物体の2次元オプティカルフローを算出する周辺監視装置が開示されている。この特許文献1の技術では、その2次元オプティカルフローに基づいて対象物体の存在する可能性の高い候補領域を抽出する。そして、この技術では、その候補領域の3次元情報をステレオカメラの画像から取得し、その3次元情報とステレオカメラを有する周辺監視装置との位置関係に基づいて、自車両と対象物体との衝突可能性を判定している。   Conventionally, this kind of motion estimation apparatus is known. For example, Patent Literature 1 below discloses a periphery monitoring device that calculates a two-dimensional optical flow of a target object around a host vehicle from a time-series image captured by a stereo camera by corresponding point search processing. In the technique of Patent Document 1, a candidate area where a target object is highly likely to exist is extracted based on the two-dimensional optical flow. In this technique, the three-dimensional information of the candidate area is acquired from the image of the stereo camera, and the collision between the host vehicle and the target object is based on the positional relationship between the three-dimensional information and the periphery monitoring device having the stereo camera. Judging the possibility.

特開2010−286926号公報JP 2010-286926 A

ところで、自車両から遠く離れている物体(例えば撮像した画像上の消失点付近に存在している物体)は、撮像間隔の短いフレーム間において、自車両の近くの物体よりも見かけ上の動きが小さい。このため、そのような遠方領域の物体については、自車両の近くの物体と比べて2次元オプティカルフローの算出が難しい。よって、遠方領域においては、画像の撮像タイミングが同じであるにも拘わらず、自車両の近傍領域と比べて、動きのある物体の検出精度の低下や対象物体の存在する可能性の高い候補領域の抽出精度の低下を引き起こす可能性がある。   By the way, an object that is far from the own vehicle (for example, an object that exists in the vicinity of the vanishing point on the captured image) has a more apparent movement than an object near the own vehicle between frames with a short imaging interval. small. For this reason, it is difficult to calculate a two-dimensional optical flow for an object in such a far region as compared to an object near the own vehicle. Therefore, in the far field, although the image capturing timing is the same, the candidate area is likely to have a lower detection accuracy of a moving object and the presence of the target object than in the vicinity of the host vehicle. This may cause a decrease in extraction accuracy.

そこで、本発明は、かかる従来例の有する不都合を改善し、遠方領域の物体の動きを精度良く推定することが可能な動き推定装置を提供することを、その目的とする。   Accordingly, an object of the present invention is to provide a motion estimation device that can improve the disadvantages of the conventional example and can accurately estimate the motion of an object in a far region.

上記目的を達成する為、本発明は、自車両の周辺の撮像領域を撮像し、輝度値情報が含まれた画素の集合体である撮像画像を時系列で出力する撮像装置と、前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、動き推定対象の前記撮像画像の画素が自車両に対して遠方に存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する一方、前記動き推定対象の撮像画像の前記画素が自車両の近くに存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する探索画像設定部と、前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点の画素に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、を備えることを特徴としている。   In order to achieve the above object, the present invention captures an imaging region around a host vehicle and outputs a captured image, which is a collection of pixels including luminance value information, in time series, and the captured image An image information storage unit that stores the information in association with the imaging time, a distance information generation unit that calculates depth distance information from the imaging device to the pixel of the captured image based on luminance value information of the captured image, and movement As the pixels of the captured image to be estimated are located farther from the own vehicle, the captured image of the image information storage unit that is further away from the captured image of the motion estimation target While setting as a search image associated with a pixel, the closer the pixel of the captured image of the motion estimation target is to the vehicle, the closer the imaging time is to the captured image of the motion estimation target Image information A search image setting unit that sets the captured image of the unit as a search image associated with the pixel, a pixel of the captured image that is the motion estimation target is set as a target point for each pixel, and a corresponding point corresponding to the target point And a motion estimation unit that estimates the motion of the target point from the search image associated with the pixel of the target point.

ここで、前記探索画像設定部は、前記動き推定対象の撮像画像の前記画素における2次元の動きベクトルの大きさの推定値が大きくなるほど、撮像時間のより新しい前記画像情報記憶部の前記撮像画像を前記探索画像に設定することが望ましい。   Here, the search image setting unit has a newer imaging time in the captured image of the image information storage unit as the estimated value of the two-dimensional motion vector in the pixel of the captured image of the motion estimation target increases. Is preferably set in the search image.

上記目的を達成する為、本発明は、自車両の周辺の撮像領域を撮像し、輝度値情報が含まれた画素の集合体である撮像画像を時系列で出力する撮像装置と、前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、動き推定対象の前記撮像画像を複数の領域に分割する領域設定部と、自車両に対して遠方に存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する一方、自車両の近くに存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する探索画像設定部と、前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点が含まれた前記領域に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、を備えることを特徴としている。   In order to achieve the above object, the present invention captures an imaging region around a host vehicle and outputs a captured image, which is a collection of pixels including luminance value information, in time series, and the captured image An image information storage unit that stores the information in association with the imaging time, a distance information generation unit that calculates depth distance information from the imaging device to the pixel of the captured image based on luminance value information of the captured image, and movement An area setting unit that divides the captured image to be estimated into a plurality of areas, and the area that is located farther from the host vehicle is more distant from the captured image that is the motion estimation object While the captured image of the image information storage unit is set as a search image associated with the region, the region existing closer to the vehicle has a longer imaging time than the captured image of the motion estimation target. Close said A search image setting unit that sets the captured image of the image information storage unit as a search image associated with the region, and a pixel of the captured image that is the motion estimation target is set as a target point for each pixel, and corresponds to the target point And a motion estimator that searches for the corresponding point from the search image associated with the region including the target point and estimates the motion of the target point.

ここで、前記領域設定部は、前記動き推定対象の撮像画像上における撮像対象の位置情報と、前記動き推定対象の撮像画像上で自車線と対向車線と路側とを区分けした領域の位置情報と、前記動き推定対象の撮像画像上における消失点から各画素までの距離と、前記動き推定対象の撮像画像の各画素の奥行距離と、前記動き推定対象の撮像画像の前記画素の2次元の動きベクトルの大きさの推定値と、の内の少なくとも1つに基づいて、前記動き推定対象の撮像画像を複数の領域に分割することが望ましい。   Here, the area setting unit includes position information of the imaging target on the captured image of the motion estimation target, and position information of an area obtained by dividing the own lane, the oncoming lane, and the roadside on the captured image of the motion estimation target. , The distance from the vanishing point to each pixel on the captured image of the motion estimation target, the depth distance of each pixel of the captured image of the motion estimation target, and the two-dimensional motion of the pixel of the captured image of the motion estimation target It is desirable to divide the captured image as the motion estimation target into a plurality of regions based on at least one of the estimated values of the vector sizes.

本発明に係る動き推定装置は、動き推定対象の撮像画像の画素毎に又は当該撮像画像を分割した領域毎に注目点の動きを推定する際の探索画像を適応的に設定しているので、撮像間隔の短い撮像画像間において見かけ上の動きの小さい遠方領域の撮像対象(物体等)に関しても、その動きを精度良く推定することができる。   Since the motion estimation apparatus according to the present invention adaptively sets a search image for estimating the motion of the attention point for each pixel of the captured image of the motion estimation target or for each region obtained by dividing the captured image, With respect to an imaging target (such as an object) in a distant area with a small apparent motion between captured images with a short imaging interval, the motion can be accurately estimated.

図1は、本発明に係る動き推定装置の実施例の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of an embodiment of a motion estimation apparatus according to the present invention. 図2は、時間tの撮像画像の一例である。FIG. 2 is an example of a captured image at time t. 図3は、時間t−1の撮像画像の一例である。FIG. 3 is an example of a captured image at time t-1. 図4は、時間t−3の撮像画像の一例である。FIG. 4 is an example of a captured image at time t-3. 図5は、ブロックマッチング法について説明する図である。FIG. 5 is a diagram for explaining the block matching method. 図6は、実施例の動きの推定について説明するフローチャートである。FIG. 6 is a flowchart illustrating motion estimation according to the embodiment. 図7は、本発明に係る動き推定装置の変形例の構成の一例を示すブロック図である。FIG. 7 is a block diagram showing an example of the configuration of a modified example of the motion estimation apparatus according to the present invention. 図8は、変形例の動きの推定について説明するフローチャートである。FIG. 8 is a flowchart illustrating motion estimation according to a modification.

以下に、本発明に係る動き推定装置の実施例を図面に基づいて詳細に説明する。尚、この実施例によりこの発明が限定されるものではない。   Embodiments of a motion estimation device according to the present invention will be described below in detail with reference to the drawings. The present invention is not limited to the embodiments.

[実施例]
本発明に係る動き推定装置の実施例を図1から図6に基づいて説明する。
[Example]
An embodiment of a motion estimation apparatus according to the present invention will be described with reference to FIGS.

図1の符号1は、本実施例の動き推定装置を有している物体検出システムを示す。その物体検出システム1は、撮像した画像に基づいて自車両の周辺の物体や背景(空等)を検出し、その物体が動きのあるものなのか静止しているものなのかを判別可能なシステムである。よって、この物体検出システム1は、自車両の周辺を撮像する撮像装置10と、その撮像した撮像画像に基づいて物体検出のための画像処理を行う電子制御装置(以下、「画像処理ECU」という。)20と、を備える。この物体検出システム1においては、撮像装置10に加えて、後述する画像情報取得部21と画像情報記憶部22と距離情報生成部23と探索画像設定部24と注目点動き推定部25と3次元運動推定部26と撮像対象検出部27とが動き推定装置の構成として設けられている。特に、この例示では、その注目点動き推定部25と3次元運動推定部26と撮像対象検出部27とによって、撮像対象の動きを推定する動き推定部が構成される。   Reference numeral 1 in FIG. 1 indicates an object detection system having the motion estimation apparatus of the present embodiment. The object detection system 1 is a system capable of detecting an object or background (such as the sky) around the host vehicle based on a captured image, and determining whether the object is moving or stationary. It is. Therefore, the object detection system 1 includes an imaging device 10 that captures the periphery of the host vehicle, and an electronic control device that performs image processing for object detection based on the captured image (hereinafter referred to as “image processing ECU”). 20). In the object detection system 1, in addition to the imaging device 10, an image information acquisition unit 21, an image information storage unit 22, a distance information generation unit 23, a search image setting unit 24, an attention point motion estimation unit 25, and a three-dimensional image, which will be described later. A motion estimation unit 26 and an imaging target detection unit 27 are provided as a configuration of the motion estimation device. In particular, in this illustration, the attention point motion estimation unit 25, the three-dimensional motion estimation unit 26, and the imaging target detection unit 27 constitute a motion estimation unit that estimates the motion of the imaging target.

撮像装置10には、輝度画像と距離画像の取得が可能なものを用いる。ステレオカメラの左側カメラと右側カメラとで撮像された撮像画像は、それぞれ輝度値情報が含まれた画素の集合体であり、画素毎に輝度値情報を有する輝度画像として取得することができる。また、ステレオカメラは、左側カメラと右側カメラとでそれぞれに同一撮像領域内の撮像画像(輝度画像)を得ることができるので、そのそれぞれの撮像画像の情報から当該撮像領域内の画素毎の視差値情報を得ることができ、その視差値情報に基づいて距離画像を生成することができる。このため、この例示の撮像装置10には、右側カメラ11と左側カメラ12とを有するステレオカメラを利用する。その撮像画像は、モノクロでもカラーでもよい。また、撮像波長帯については、可視領域でも近赤外領域でもよい。また、その撮像装置10は、輝度画像と距離画像が取得できるものであればよい。このため、撮像装置10には、例えば、TOF(Time Of Flight)カメラ等の距離画像センサを用いてもよい。尚、以下においては、その輝度値情報を有する画像(撮像画像、輝度画像)のことを撮像画像と総称する。   As the imaging device 10, a device capable of acquiring a luminance image and a distance image is used. The captured images captured by the left camera and the right camera of the stereo camera are a collection of pixels each including luminance value information, and can be acquired as a luminance image having luminance value information for each pixel. In addition, since the stereo camera can obtain a captured image (luminance image) in the same imaging area for each of the left camera and the right camera, the parallax for each pixel in the imaging area can be obtained from the information of each captured image. Value information can be obtained, and a distance image can be generated based on the parallax value information. For this reason, a stereo camera having a right camera 11 and a left camera 12 is used for the illustrated imaging apparatus 10. The captured image may be monochrome or color. The imaging wavelength band may be in the visible region or the near infrared region. Moreover, the imaging device 10 should just be what can acquire a brightness | luminance image and a distance image. For this reason, a distance image sensor such as a TOF (Time Of Flight) camera may be used as the imaging device 10. In the following, images having the luminance value information (captured images, luminance images) are collectively referred to as captured images.

この撮像装置10は、右側カメラ11と左側カメラ12とでそれぞれに自車両の周辺の撮像対象を撮像して、その撮像領域の撮像画像の情報を時系列で(つまり撮像したフレーム毎に)画像処理ECU20へと出力する。その撮像対象とは、路面、区画線、立体物(他車両等の動的物体や建築物等の静的物体)、背景(空等)などである。その画像処理ECU20は、受信した撮像画像の情報を画像処理ECU20の画像情報取得部21に渡す。   The imaging device 10 captures an imaging target around the own vehicle with the right camera 11 and the left camera 12, respectively, and captures information on the captured image in the imaging region in time series (that is, for each captured frame). It outputs to process ECU20. The imaging targets include road surfaces, lane markings, three-dimensional objects (dynamic objects such as other vehicles and static objects such as buildings), backgrounds (such as the sky), and the like. The image processing ECU 20 passes the received captured image information to the image information acquisition unit 21 of the image processing ECU 20.

画像情報取得部21は、その受信した撮像画像の情報を時系列で画像情報記憶部22に記憶させる。また、この画像情報取得部21は、その撮像画像の情報を右側カメラ11で撮像されたものと左側カメラ12で撮像されたものとが区別できるように画像情報記憶部22に記憶させる。つまり、その画像情報記憶部22には、その撮像画像の情報が撮像時間に関連付けて記憶させられている。その画像情報記憶部22とは、例えば、画像処理ECU20が有する一時記憶装置のことである。この画像情報記憶部22には、後述する物体の動きの推定に必要なフレーム数だけを記憶させればよい。このため、そのフレーム数を超えた場合には、不要になった撮像画像を撮像時間の古いものから順に消去するようバッファリングすればよい。画像情報取得部21は、受信した撮像画像の情報や画像情報記憶部22の撮像画像の情報を画像処理ECU20の距離情報生成部23と探索画像設定部24に渡す。   The image information acquisition unit 21 stores the information of the received captured image in the image information storage unit 22 in time series. Further, the image information acquisition unit 21 stores the information of the captured image in the image information storage unit 22 so that information captured by the right camera 11 and information captured by the left camera 12 can be distinguished. That is, the image information storage unit 22 stores information of the captured image in association with the imaging time. The image information storage unit 22 is, for example, a temporary storage device included in the image processing ECU 20. The image information storage unit 22 may store only the number of frames necessary for estimating the motion of an object described later. For this reason, when the number of frames is exceeded, buffering may be performed so that captured images that are no longer necessary are deleted in order from the oldest imaging time. The image information acquisition unit 21 passes the received captured image information and the captured image information of the image information storage unit 22 to the distance information generation unit 23 and the search image setting unit 24 of the image processing ECU 20.

距離情報生成部23は、撮像時間の同じ右側カメラ11と左側カメラ12のそれぞれの撮像画像の情報に基づいて前述した画素毎の視差値情報を算出し、この画素毎の視差値情報に基づいて各画素の奥行距離情報を算出して、撮像領域の各位置(各画素)の奥行距離を表した距離画像の生成を行う。よって、その距離画像の情報には、画素毎の奥行距離情報が含まれている。その距離画像の生成は、この技術分野における周知の方法によって行う。   The distance information generation unit 23 calculates the above-described parallax value information for each pixel based on the information of the captured images of the right camera 11 and the left camera 12 having the same imaging time, and based on the parallax value information for each pixel. The depth distance information of each pixel is calculated, and a distance image representing the depth distance of each position (each pixel) in the imaging region is generated. Therefore, the information on the distance image includes depth distance information for each pixel. The distance image is generated by a well-known method in this technical field.

ここで、奥行距離情報とは、撮像装置10から撮像画像内における撮像対象までの奥行の距離を表す情報のことである。その奥行距離の方向は、例えば撮像画像の水平方向(横方向)及び垂直方向(縦方向)を各々X座標及びY座標と定義した場合に、そのXY平面に直交する方向であり、かつ、撮像装置10の撮像方向において当該撮像装置10から遠方に向かって離れていく方向のことである。このため、撮像装置10には、少なくとも自車両の進行方向を撮像させる。その奥行距離情報の算出には、例えば、SGM法やELAS法等のdense stereo技術を用いればよい。   Here, the depth distance information is information indicating the depth distance from the imaging device 10 to the imaging target in the captured image. The direction of the depth distance is, for example, a direction orthogonal to the XY plane when the horizontal direction (lateral direction) and the vertical direction (vertical direction) of the captured image are defined as an X coordinate and a Y coordinate, respectively, This is a direction away from the imaging device 10 in the imaging direction of the device 10. For this reason, the imaging device 10 captures at least the traveling direction of the host vehicle. For the calculation of the depth distance information, for example, a dense stereo technique such as SGM method or ELAS method may be used.

距離情報生成部23は、その奥行距離情報を有する距離画像の情報を画像処理ECU20の探索画像設定部24と3次元運動推定部26に渡す。   The distance information generation unit 23 passes information on the distance image having the depth distance information to the search image setting unit 24 and the three-dimensional motion estimation unit 26 of the image processing ECU 20.

撮像画像上の撮像対象の動きを推定するに際しては、動き推定対象の撮像画像(以下、「推定対象画像」という。)上の注目点に対応する対応点を備えた撮像画像(以下、「探索画像」という。)を当該推定対象画像とは撮像時間の異なる撮像画像の中から探索する。その探索画像の探索は、原則として推定対象画像の全ての画素に対して行う。そして、この動き推定装置では、例えば後述するブロックマッチング法が適用される場合、その推定対象画像と探索画像との間で当該推定対象画像上の注目点の2次元の動きを推定する。尚、この例示では、最新の撮像画像を推定対象画像とする。また、対応点とは、探索画像における推定対象画像の注目点の移動元である。このため、推定対象画像と探索画像の撮像間隔に時間t0の開きがある場合には、その対応点の時間t0経過後の移動先が注目点となる。   When estimating the motion of the imaging target on the captured image, the captured image (hereinafter referred to as “search”) having a corresponding point corresponding to the point of interest on the captured image of the motion estimation target (hereinafter referred to as “estimation target image”). "Image")) is searched for from the captured images having a different imaging time from the estimation target image. In principle, the search image is searched for all the pixels of the estimation target image. In this motion estimation device, for example, when a block matching method described later is applied, the two-dimensional motion of the attention point on the estimation target image is estimated between the estimation target image and the search image. In this example, the latest captured image is the estimation target image. The corresponding point is a movement source of the attention point of the estimation target image in the search image. For this reason, when there is an opening of time t0 in the imaging interval between the estimation target image and the search image, the movement destination of the corresponding point after the time t0 has passed becomes the attention point.

ここで、自車両に対して遠方に存在している撮像対象は、例えば、移動中の動的物体であろうと、自車両の走行に伴い相対的な位置関係が変化する静的物体であろうと、自車両に対して遠方に存在しているほど自車両から見た見かけ上の動きが小さい。このため、このような遠方の撮像対象は、自車両の走行中に連続して撮像された2つの撮像画像間(フレーム間)において、自車両に対して遠方に存在しているほど注目点の動きが小さい。一方、自車両の近傍に存在している撮像対象は、そのような動的物体であろうと静的物体であろうと、自車両に対して近くに存在しているほど自車両から見た見かけ上の動きが大きい。このため、このような近傍の撮像対象は、自車両の走行中に連続して撮像された2つの撮像画像間において、自車両に対して近くに存在しているほど注目点の動きが大きい。よって、自車両の遠方の撮像対象は、自車両の近傍の撮像対象と比較して、自車両から遠く離れた場所に存在しているほど、動きの有無の推定が難しく、そして、動きがあるならば、その動きベクトルの大きさや方向の推定が難しい。   Here, the imaging target that exists far away from the host vehicle may be, for example, a moving dynamic object or a static object whose relative positional relationship changes as the host vehicle travels. The apparent movement as seen from the own vehicle is smaller as it is located farther from the own vehicle. For this reason, such a distant imaging target is more noticeable as it is located farther from the own vehicle between two captured images (between frames) continuously taken while the host vehicle is traveling. Small movement. On the other hand, the imaging target that is present in the vicinity of the host vehicle, whether it is a dynamic object or a static object, is more apparent from the host vehicle as it is closer to the host vehicle. The movement is big. For this reason, the movement of the attention point increases as the nearby imaging target is located closer to the host vehicle between two captured images continuously captured while the host vehicle is traveling. Therefore, it is more difficult to estimate the presence or absence of movement and the movement of an imaging object far away from the own vehicle is more distant from the own vehicle than the imaging object near the own vehicle. Then, it is difficult to estimate the size and direction of the motion vector.

例えば、図2には最新(時間t)の撮像画像を表しており、図3にはその1つ前(時間t−1)に撮像された撮像画像を表している。その2つの撮像画像間においては、遠方の車両C1(車両C1を表す画素に設定される注目点)と近傍の車両C2(車両C2を表す画素に設定される注目点)とを比較すると、近傍の車両C2の場合、その動きを推定できるだけの位置の違いが見受けられるが、遠方の車両C1の場合、その動きを推定できるだけの位置の違いの判別が難しい。尚、遠方の車両C1は、撮像画像上の消失点の近くに存在している。その消失点とは、撮像画像上における自車両の進行方向の無限遠点であり、見かけ上の動きが無い点のことである。   For example, FIG. 2 shows the latest captured image (time t), and FIG. 3 shows the captured image captured immediately before (time t−1). When the distant vehicle C1 (the attention point set in the pixel representing the vehicle C1) and the nearby vehicle C2 (the attention point set in the pixel representing the vehicle C2) are compared between the two captured images, However, in the case of a distant vehicle C1, it is difficult to discriminate the position difference that can estimate the movement. The distant vehicle C1 exists near the vanishing point on the captured image. The vanishing point is a point at infinity in the traveling direction of the host vehicle on the captured image and is a point where there is no apparent movement.

そこで、本実施例の画像処理ECU20の探索画像設定部24には、自車両(撮像装置10)と推定対象画像の画素との位置関係に基づいて、その画素毎に当該画素(注目点)に対応する対応点を備えた探索画像の設定を行わせる。つまり、この探索画像設定部24には、推定対象画像で動きの推定対象となる画素に対応付けた探索画像を当該画素毎に設定させる。   Therefore, the search image setting unit 24 of the image processing ECU 20 according to the present embodiment sets the pixel (attention point) for each pixel based on the positional relationship between the host vehicle (the imaging device 10) and the pixel of the estimation target image. A search image having corresponding points is set. That is, the search image setting unit 24 sets, for each pixel, a search image associated with the pixel that is the estimation target of the motion in the estimation target image.

撮像対象の動きを推定する際に互いに比較される2つの撮像画像(推定対象画像と探索画像)の間では、その撮像間隔が広いほど、撮像対象の相対的な動き量が大きくなるので、その撮像対象における画素の2次元の動きベクトルの大きさや方向が推定し易くなる。このため、消失点やその付近に存在している見かけ上の動きの小さい遠方の撮像対象については、その動きを推定する上で、推定対象画像と探索画像の間の撮像間隔を広げることが望ましい。よって、探索画像設定部24には、推定対象画像の画素(注目点)の奥行距離情報に基づいて、この画素(注目点)が自車両(撮像装置10)に対して遠方に存在しているほど、その推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を当該画素(注目点)に対応付けた探索画像として設定させる。   Between the two captured images (estimation target image and search image) that are compared with each other when estimating the motion of the imaging target, the relative motion amount of the imaging target increases as the imaging interval increases. It becomes easy to estimate the size and direction of the two-dimensional motion vector of the pixel in the imaging target. For this reason, it is desirable to widen the imaging interval between the estimation target image and the search image for estimating the movement of a distant imaging target with a small apparent motion existing at or near the vanishing point. . Therefore, based on the depth distance information of the pixel (attention point) of the estimation target image, this pixel (attention point) exists in the search image setting unit 24 at a distance from the own vehicle (imaging device 10). The captured image of the image information storage unit 22 that is further away from the estimation target image is set as a search image associated with the pixel (attention point).

一方、自車両の近くに存在している撮像対象については、推定対象画像と探索画像の間の撮像間隔を広げなくても、その間の見かけ上の動きが大きいので、動きを推定することができる。このため、探索画像設定部24には、推定対象画像の画素(注目点)の奥行距離情報に基づいて、この画素(注目点)が自車両(撮像装置10)の近くに存在しているほど、その推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を当該画素(注目点)に対応付けた探索画像として設定させる。   On the other hand, for an imaging target that exists near the host vehicle, the apparent motion between the estimation target image and the search image can be estimated without increasing the imaging interval between the estimation target image and the search image. . For this reason, in the search image setting unit 24, based on the depth distance information of the pixel (attention point) of the estimation target image, the closer this pixel (attention point) is to the own vehicle (imaging device 10). Then, the captured image of the image information storage unit 22 having a shorter imaging time than the estimation target image is set as a search image associated with the pixel (attention point).

例えば、この探索画像設定部24には、推定対象画像の画素における2次元の動きベクトルの相対的な大きさに応じて、この画素の動きの推定に際して当該画素に対応付ける探索画像(つまり当該画素が注目点となったときに当該推定対象画像に対応付ける探索画像)を画像情報記憶部22の過去の撮像画像の中から決めさせる。   For example, in the search image setting unit 24, a search image (that is, the pixel is associated with the pixel when estimating the motion of the pixel according to the relative magnitude of the two-dimensional motion vector in the pixel of the estimation target image). A search image to be associated with the estimation target image when it becomes the attention point is determined from past captured images in the image information storage unit 22.

具体的に、この探索画像設定部24は、現在の推定対象画像に対する1フレーム前の撮像画像の各画素の動きの推定結果(2次元のオプティカルフロー)が未だ得られていない場合、この推定対象画像における各画素の2次元の動きベクトルの大きさを推定する。例えば、この探索画像設定部24は、その推定対象画像の画素毎に、その画素の奥行距離情報と自車両の運動量(例えば1フレーム前の撮像時から推定対象画像が撮像されるまでの自車両の移動方向及び移動量)とに基づいて当該画素の2次元の動きベクトルの大きさを推定する。尚、その推定の際には、その画素が表す撮像対象が静的物体や路面等の静止物であると仮定する。その画素の2次元の動きベクトルの大きさの推定値を求める際には、3次元運動推定部26によって推定された後述する3次元運動量を考慮に入れてもよい。   Specifically, the search image setting unit 24 determines the estimation target when the estimation result (two-dimensional optical flow) of each pixel of the captured image one frame before the current estimation target image has not yet been obtained. The size of the two-dimensional motion vector of each pixel in the image is estimated. For example, for each pixel of the estimation target image, the search image setting unit 24 sets the depth distance information of the pixel and the amount of movement of the host vehicle (for example, the host vehicle from the time of imaging one frame before the estimation target image is captured). The size of the two-dimensional motion vector of the pixel is estimated on the basis of the movement direction and the movement amount). In the estimation, it is assumed that the imaging target represented by the pixel is a stationary object such as a static object or a road surface. When obtaining an estimated value of the size of the two-dimensional motion vector of the pixel, a three-dimensional momentum described later estimated by the three-dimensional motion estimation unit 26 may be taken into consideration.

一方、この探索画像設定部24は、現在の推定対象画像に対する1フレーム前の撮像画像の各画素の2次元の動きの推定結果(2次元のオプティカルフロー)を注目点動き推定部25から取得している場合、その推定結果に基づいて、この推定対象画像における各画素の2次元の動きベクトルの大きさの推定値を得ることができる。   On the other hand, the search image setting unit 24 acquires the estimation result (two-dimensional optical flow) of each pixel of the captured image one frame before the current estimation target image from the attention point motion estimation unit 25. If it is, the estimated value of the size of the two-dimensional motion vector of each pixel in the estimation target image can be obtained based on the estimation result.

ここで、画素の2次元の動きベクトルの大きさの推定値からは、この画素が推定対象画像上で自車両(撮像装置10)に対してどの程度の位置関係で存在しているのか予測できる。このため、探索画像設定部24は、推定対象画像の画素における2次元の動きベクトルの大きさの推定値を用いて、この画素の動きを推定する際に当該画素に対応付ける探索画像を設定することができる。この探索画像の設定は、推定対象画像の画素毎に行う。   Here, from the estimated value of the size of the two-dimensional motion vector of the pixel, it can be predicted how much the pixel exists in the estimation target image with respect to the own vehicle (imaging device 10). . For this reason, the search image setting unit 24 uses the estimated value of the size of the two-dimensional motion vector in the pixel of the estimation target image to set a search image associated with the pixel when estimating the motion of the pixel. Can do. The search image is set for each pixel of the estimation target image.

ここでは、その画素の2次元の動きベクトルの大きさの推定値が大きくなるほど(つまり当該画素が自車両に対して近くに存在しているほど)、推定対象画像よりも撮像時間のより新しい撮像画像が探索画像として設定されるように、例えば、その推定値に対する撮像時間をステップ状に設定しておけばよい。尚、この場合には、撮像装置10の撮像間隔が一定であると仮定する。また、ここでは、その画素の2次元の動きベクトルの大きさの推定値が大きくなるほど撮像時間のより新しい撮像画像が探索画像として設定されるように、その画素の2次元の動きベクトルの大きさの関数として定義してもよい。   Here, the larger the estimated value of the size of the two-dimensional motion vector of the pixel (that is, the closer the pixel is to the host vehicle), the newer the imaging time than the estimation target image. For example, the imaging time for the estimated value may be set stepwise so that the image is set as the search image. In this case, it is assumed that the imaging interval of the imaging device 10 is constant. In addition, here, the magnitude of the two-dimensional motion vector of the pixel is set such that the larger the estimated value of the magnitude of the two-dimensional motion vector of the pixel is, the newer the captured image is set as the search image. It may be defined as a function of

例えば、図4には、前述した図2の時間tの撮像画像(推定対象画像)の3つ前(時間t−3)に撮像された撮像画像を表している。探索画像設定部24は、推定対象画像上で近傍の車両C2を表す各画素について、画像情報記憶部22に記憶されている図3の時間t−1の撮像画像を探索画像として設定する。一方、推定対象画像上で遠方の車両C1を表す各画素については、画像情報記憶部22に記憶されている図4の時間t−3の撮像画像を探索画像として設定する。   For example, FIG. 4 shows a captured image captured three times before (time t−3) the captured image (estimation target image) at time t in FIG. 2 described above. The search image setting unit 24 sets the captured image at time t−1 in FIG. 3 stored in the image information storage unit 22 as a search image for each pixel representing the nearby vehicle C2 on the estimation target image. On the other hand, for each pixel representing the distant vehicle C1 on the estimation target image, the captured image at time t-3 in FIG. 4 stored in the image information storage unit 22 is set as a search image.

尚、撮像画像上には、舗装したてのアスファルト、空、新築建造物の壁、陰で黒くなっているところ等のように、広い領域に渡ってテクスチャ(模様)の無い撮像対象が存在する場合もある。そして、そのような領域においては、画素同士の区別を付けることが難しいので、それぞれの画素の動きの推定が上手くいかない可能性がある。このため、探索画像設定部24は、そのような動きの推定を妨げるテクスチャの無い広い領域のそれぞれの画素について、探索画像の設定を実施しないよう構成してもよい。これにより、その探索画像が設定されていない推定対象画像の画素については、注目点動き推定部25による動きの推定が省略されることになる。よって、その際には、演算処理の負荷の軽減が図られる。更に、探索画像設定部24は、探索画像を決める際の精度を高めるために、推定対象画像の画素における2次元の動きベクトルの相対的な大きさと共に、その画素の奥行距離情報を利用してもよい。   In addition, on the picked-up image, there are picked up objects having no texture (pattern) over a wide area, such as freshly paved asphalt, the sky, the wall of a new building, and a blackened area under the shade. In some cases. In such a region, since it is difficult to distinguish between pixels, there is a possibility that the motion of each pixel cannot be estimated well. For this reason, the search image setting unit 24 may be configured not to set the search image for each pixel in a wide area having no texture that hinders such motion estimation. As a result, for the pixels of the estimation target image for which the search image is not set, the motion estimation by the attention point motion estimation unit 25 is omitted. Therefore, in that case, the calculation processing load can be reduced. Further, the search image setting unit 24 uses the depth distance information of the pixel together with the relative size of the two-dimensional motion vector in the pixel of the estimation target image in order to increase the accuracy when determining the search image. Also good.

この探索画像設定部24は、推定対象画像の画素と探索画像との対応付け情報を当該推定対象画像の画素毎に画像処理ECU20の注目点動き推定部25に送る。   The search image setting unit 24 sends the association information between the pixel of the estimation target image and the search image to the attention point motion estimation unit 25 of the image processing ECU 20 for each pixel of the estimation target image.

注目点動き推定部25は、推定対象画像上で注目点を設定し、その注目点に対応付けられた探索画像の特定を対応付け情報に基づいて行う。そして、この注目点動き推定部25は、その特定した探索画像を画像情報記憶部22の撮像画像の中から読み込み、その注目点の2次元の動きを推定する。尚、この注目点動き推定部25には、対応付け情報の無い推定対象画像の画素を注目点に設定させない。   The attention point motion estimation unit 25 sets an attention point on the estimation target image, and specifies a search image associated with the attention point based on the association information. The attention point motion estimation unit 25 reads the identified search image from the captured image of the image information storage unit 22 and estimates the two-dimensional motion of the attention point. The attention point motion estimation unit 25 does not set pixels of the estimation target image having no association information as attention points.

注目点動き推定部25は、この技術分野における周知の方法で注目点の2次元の動きを推定する。例えば、その注目点の動きの推定には、勾配法やブロックマッチング法を用いることができる。   The attention point motion estimation unit 25 estimates the two-dimensional motion of the attention point by a well-known method in this technical field. For example, a gradient method or a block matching method can be used for estimating the movement of the attention point.

勾配法を適用する場合には、下記の式1のオプティカルフロー拘束方程式を局所領域内の各画素から構成する。その局所領域は、注目点を含む所定領域のことであり、注目点の画素と当該注目点の周囲の複数の画素とを備える。この局所領域は、例えば、N×Nの画素数又はM×Nの画素数(N,M:整数)の矩形領域とする。そして、この従来の勾配法においては、その画素毎の拘束方程式を連立させた式2の連立方程式を解くことで、注目点の動きを推定する。   When the gradient method is applied, the optical flow constraint equation of the following Equation 1 is configured from each pixel in the local region. The local area is a predetermined area including the point of interest, and includes a pixel of the point of interest and a plurality of pixels around the point of interest. The local area is, for example, a rectangular area having N × N pixels or M × N pixels (N, M: integer). In this conventional gradient method, the motion of the attention point is estimated by solving the simultaneous equations of Equation 2 in which the constraint equations for each pixel are simultaneously provided.

Figure 2016004446
Figure 2016004446

Figure 2016004446
Figure 2016004446

撮像画像上の注目点の画素(注目画素)の座標(x,y)における画素の時間tにおける輝度をI(x,y,t)とする。「u(=dx/dt)」は、座標(x,y)における画素の動きベクトルのx成分である。「v(=dy/dt)」は、座標(x,y)における画素の動きベクトルのy成分である。「I(=∂I/∂x)」や「I(=∂I/∂y)」は、空間的な輝度勾配を表している。「I(=∂I/∂t)」は、時間的な輝度勾配を表している。式2の「f」と「A」は、各々下記の式3,4で表される。 Let I (x, y, t) be the luminance at the time t of the pixel at the coordinates (x, y) of the pixel of interest (pixel of interest) on the captured image. “U (= dx / dt)” is the x component of the motion vector of the pixel at the coordinates (x, y). “V (= dy / dt)” is the y component of the motion vector of the pixel at the coordinates (x, y). “I x (= ∂I / ∂x)” and “I y (= ∂I / ∂y)” represent a spatial luminance gradient. “I t (= ∂I / ∂t)” represents a temporal luminance gradient. “F” and “A” in Expression 2 are represented by the following Expressions 3 and 4, respectively.

Figure 2016004446
Figure 2016004446

Figure 2016004446
Figure 2016004446

ブロックマッチング法では、時間tの画像(撮像画像又は距離画像)と時間t−1の画像(時間tの1つ前に撮像された撮像画像又は距離画像)との間において、時間tの画像(撮像画像又は距離画像)の注目点に対応する時間t−1の画像内(撮像画像内又は距離画像内)の対応点を直接的に探索する。このブロックマッチング法においては、その対応点の確からしさについて下記の式5又は式6を用いて評価する。   In the block matching method, an image at time t (an image captured at the time t) (an image captured at the time t before the time t or an image captured at the time t) (an image captured at the time t before the time t) (an image captured at the time t). A corresponding point in the image (in the captured image or in the distance image) corresponding to the attention point in the captured image or the distance image is directly searched. In this block matching method, the probability of the corresponding point is evaluated using the following formula 5 or formula 6.

Figure 2016004446
Figure 2016004446

Figure 2016004446
Figure 2016004446

図5は、式5のブロックマッチング法について説明する図である。ここでは、式5のSADが最小になる(u,v)を注目点の動き(2次元のオプティカルフロー)として推定する。   FIG. 5 is a diagram for explaining the block matching method of Equation 5. Here, (u, v) at which the SAD of Equation 5 is minimized is estimated as the movement of the point of interest (two-dimensional optical flow).

注目点動き推定部25は、動きの推定対象となった注目点の2次元の動きの推定結果{2次元のオプティカルフロー(2次元の動きベクトルの大きさと方向)}を画像処理ECU20の3次元運動推定部26に送る。   The point-of-interest motion estimation unit 25 obtains a two-dimensional motion estimation result {two-dimensional optical flow (the size and direction of a two-dimensional motion vector)} of the point of interest, which is a target of motion estimation, from the three-dimensional image processing ECU 20. This is sent to the motion estimation unit 26.

3次元運動推定部26は、推定対象画像の画素(注目点)の奥行距離情報と当該画素の2次元の動きの推定結果とに基づいて、この画素の3次元空間における運動量(3次元運動量)を推定する。その3次元運動量とは、その画素の3次元空間における動きベクトルの大きさと方向のことである。3次元運動推定部26は、この3次元運動量の推定を、2次元のオプティカルフローと視差値の両方が求められている全ての画素に対して行う。この3次元運動推定部26は、その3次元運動量の推定結果を画像処理ECU20の撮像対象検出部27に送る。   Based on the depth distance information of the pixel (target point) of the estimation target image and the estimation result of the two-dimensional motion of the pixel, the three-dimensional motion estimation unit 26 calculates the momentum (three-dimensional momentum) of the pixel in the three-dimensional space. Is estimated. The three-dimensional momentum is the magnitude and direction of the motion vector in the three-dimensional space of the pixel. The three-dimensional motion estimation unit 26 performs the estimation of the three-dimensional momentum on all the pixels for which both the two-dimensional optical flow and the parallax value are obtained. The three-dimensional motion estimation unit 26 sends the estimation result of the three-dimensional motion amount to the imaging target detection unit 27 of the image processing ECU 20.

撮像対象検出部27は、推定対象画像の画素の奥行距離情報と当該画素の3次元運動量の推定結果とに基づいて、その推定対象画像上で撮像対象毎の区分けを行う。具体的には、隣接している画素間で奥行距離と3次元運動量とが共に同等又は類似のものを同一グループとし、これを推定対象画像の各画素に対して行うことによって、撮像対象毎の区分けを行う。これにより、この撮像対象検出部27は、その推定対象画像の各撮像対象を推定対象画像上における自車両に対する位置と相対速度の情報と共に検出することになる。画像処理ECU20においては、その検出結果を後段の制御システムに送る。その制御システムにおいては、その検出結果を自車両との衝突判定や衝突回避ルートの作成等に利用する。   The imaging target detection unit 27 classifies each imaging target on the estimation target image based on the depth distance information of the pixel of the estimation target image and the estimation result of the three-dimensional momentum of the pixel. Specifically, the depth distance and the three-dimensional momentum between adjacent pixels are equal or similar to each other in the same group, and this is performed on each pixel of the estimation target image, so that each imaging target Perform classification. Thereby, this imaging target detection unit 27 detects each imaging target of the estimation target image together with information on the position and relative speed with respect to the host vehicle on the estimation target image. In the image processing ECU 20, the detection result is sent to the control system at the subsequent stage. In the control system, the detection result is used for collision determination with the own vehicle, creation of a collision avoidance route, and the like.

図6には、この動き推定装置の演算処理動作に関するフローチャートを示している。   FIG. 6 shows a flowchart relating to the arithmetic processing operation of the motion estimation apparatus.

画像情報取得部21は、撮像領域内の各撮像対象が映された撮像画像(輝度画像)の情報を撮像装置10から取得する(ステップST1)。この画像情報取得部21は、撮像装置10から輝度画像の情報を受信する度に、その情報を画像情報記憶部22へと撮像時間順に時系列で一時記憶させると共に(ステップST2)、この情報を距離情報生成部23と探索画像設定部24に出力する。   The image information acquisition unit 21 acquires information of a captured image (luminance image) in which each imaging target in the imaging region is projected from the imaging device 10 (step ST1). Each time the image information acquisition unit 21 receives information on a luminance image from the imaging device 10, the image information acquisition unit 21 temporarily stores the information in the image information storage unit 22 in time series in order of imaging time (step ST2). The information is output to the distance information generation unit 23 and the search image setting unit 24.

距離情報生成部23では、その輝度画像が有する各画素の輝度値情報に基づいて、その各画素の奥行距離情報を算出し、この画素毎の奥行距離情報を有する距離画像を生成する(ステップST3)。   The distance information generation unit 23 calculates the depth distance information of each pixel based on the luminance value information of each pixel included in the luminance image, and generates a distance image having the depth distance information for each pixel (step ST3). ).

探索画像設定部24では、最新の撮像画像(推定対象画像)の画素における2次元の動きベクトルの大きさの推定値に基づいて、この画素の動きを推定する際に当該画素に対応付ける探索画像を設定する(ステップST4)。この設定は、原則として推定対象画像の各画素に対して行う。   The search image setting unit 24 selects a search image to be associated with the pixel when estimating the motion of the pixel based on the estimated value of the size of the two-dimensional motion vector in the pixel of the latest captured image (estimation target image). Set (step ST4). This setting is performed for each pixel of the estimation target image in principle.

注目点動き推定部25は、推定対象画像の各画素の中から注目点を設定し(ステップST5)、その注目点に対応付けられた探索画像を画像情報記憶部22の撮像画像の中から読み込んで、その注目点の2次元の動きを推定する(ステップST6)。   The attention point motion estimation unit 25 sets an attention point from each pixel of the estimation target image (step ST5), and reads a search image associated with the attention point from the captured image of the image information storage unit 22. Thus, the two-dimensional movement of the attention point is estimated (step ST6).

注目点動き推定部25は、推定対象画像上で動きの推定対象となる全ての注目点(つまり推定対象画像の全画素から前述した対応付け情報が無いものを除いた画素)の動きの推定を終えたのか否かを判定する(ステップST7)。注目点動き推定部25は、推定対象となる全ての注目点の動きの推定が済んでいない場合、ステップST5に戻り、別の注目点に対する動きの推定を行う。そして、推定対象となる全ての注目点の動きの推定を終えた場合、3次元運動推定部26は、その各注目点について、その奥行距離情報と2次元の動きの推定結果に基づき3次元運動量を推定する(ステップST8)。   The point-of-interest motion estimation unit 25 estimates the motion of all points of interest (that is, pixels excluding those having no association information described above from all the pixels of the estimation target image) on the estimation target image. It is determined whether or not it is finished (step ST7). The attention point motion estimation unit 25 returns to step ST5 and estimates the motion of another attention point when the estimation of the motions of all the attention points to be estimated has not been completed. Then, when the estimation of the motion of all the points of interest to be estimated has been completed, the three-dimensional motion estimation unit 26 calculates the three-dimensional momentum of each target point based on the depth distance information and the estimation result of the two-dimensional motion. Is estimated (step ST8).

撮像対象検出部27は、その各注目点の奥行距離情報と当該各注目点の3次元運動量の推定結果とに基づいて、推定対象画像上で撮像対象毎の区分けを行い、この推定対象画像上の各撮像対象を検出する(ステップST9)。画像処理ECU20においては、その各撮像対象の自車両に対する位置と相対速度の情報を後段の制御システムに出力する(ステップST10)。   The imaging target detection unit 27 classifies each imaging target on the estimation target image based on the depth distance information of each attention point and the estimation result of the three-dimensional momentum of each attention point. Are detected (step ST9). The image processing ECU 20 outputs information on the position and relative speed of each imaging target with respect to the host vehicle to the subsequent control system (step ST10).

このように、本実施例の動き推定装置は、推定対象画像の画素毎に、その画素の推定対象画像上おける自車両との距離に基づいて、この画素の動きを推定する際に当該画素に対応付ける探索画像を適応的に設定する。つまり、この動き推定装置では、推定対象画像の画素が自車両(撮像装置10)の近くに存在しているほど、その推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を当該画素に対応付けた探索画像として設定する。一方、この動き推定装置では、推定対象画像の画素が自車両(撮像装置10)に対して遠方に存在しているほど、その推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を当該画素に対応付けた探索画像として設定する。このため、この動き推定装置は、撮像間隔の短い撮像画像間において見かけ上の動きの小さい遠方領域の撮像対象に関しても、その動きを精度良く推定することができる。   As described above, the motion estimation device according to the present exemplary embodiment applies a pixel to each pixel of the estimation target image when estimating the motion of the pixel based on the distance from the own vehicle on the estimation target image of the pixel. The search image to be associated is set adaptively. That is, in this motion estimation apparatus, the closer the pixel of the estimation target image is to the host vehicle (imaging apparatus 10), the closer the captured image of the image information storage unit 22 is to the estimation target image. Is set as a search image associated with the pixel. On the other hand, in this motion estimation device, as the pixel of the estimation target image is located farther from the own vehicle (imaging device 10), the image information storage unit is farther away from the estimation target image. 22 captured images are set as search images associated with the pixels. For this reason, this motion estimation apparatus can accurately estimate the motion of an imaging target in a distant region with a small apparent motion between captured images with a short imaging interval.

[変形例]
本変形例の動き推定装置は、前述した実施例の動き推定装置に対して以下の点を変更したものである。図7には、本変形例の動き推定装置を有する物体検出システム2を示している。この物体検出システム2は、実施例の物体検出システム1において画像処理ECU20を画像処理ECU120に置き換えたものである。
[Modification]
The motion estimation apparatus according to this modification is obtained by changing the following points from the motion estimation apparatus according to the above-described embodiment. FIG. 7 shows an object detection system 2 having a motion estimation device of this modification. This object detection system 2 is obtained by replacing the image processing ECU 20 with an image processing ECU 120 in the object detection system 1 of the embodiment.

画像処理ECU120は、実施例の画像処理ECU20と同じ画像情報取得部21と画像情報記憶部22と距離情報生成部23と探索画像設定部24と注目点動き推定部25と3次元運動推定部26と撮像対象検出部27と備えると共に、道路領域認識部28と路側領域認識部29と消失点検出部30と領域設定部31とを備えたものである。本変形例においては、これらの構成を本変形例の動き推定装置が備える。但し、本変形例の探索画像設定部24と注目点動き推定部25と3次元運動推定部26は、その新たな構成に合わせて後述するように変更している。また、本変形例の撮像対象検出部27については、その検出結果(推定対象画像の各撮像対象の検出結果、その各撮像対象の自車両に対する位置と相対速度の情報)を探索画像設定部24に送る。   The image processing ECU 120 includes the same image information acquisition unit 21, image information storage unit 22, distance information generation unit 23, search image setting unit 24, attention point motion estimation unit 25, and three-dimensional motion estimation unit 26 as the image processing ECU 20 of the embodiment. And an imaging target detection unit 27, and a road region recognition unit 28, a roadside region recognition unit 29, a vanishing point detection unit 30, and a region setting unit 31. In the present modification, these configurations are included in the motion estimation device of the present modification. However, the search image setting unit 24, the point-of-interest motion estimation unit 25, and the three-dimensional motion estimation unit 26 of this modification are changed as described later in accordance with the new configuration. Further, with respect to the imaging target detection unit 27 of the present modification, the detection result (the detection result of each imaging target of the estimation target image, the information of the position and relative speed of each imaging target with respect to the own vehicle) is searched for and set as the search image setting unit 24. Send to.

道路領域認識部28と路側領域認識部29と消失点検出部30と領域設定部31は、距離情報生成部23と探索画像設定部24との間に介在させたものであり、その演算処理の結果を探索画像設定部24に送る。   The road region recognition unit 28, the roadside region recognition unit 29, the vanishing point detection unit 30, and the region setting unit 31 are interposed between the distance information generation unit 23 and the search image setting unit 24. The result is sent to the search image setting unit 24.

道路領域認識部28は、推定対象画像上(各撮像対象が3次元的に認識されている場合には、その3次元空間上)で道路領域を認識し、その道路領域を自車線領域と対向車線領域とに分割するものである。   The road area recognition unit 28 recognizes the road area on the estimation target image (in the three-dimensional space when each imaging target is recognized three-dimensionally), and faces the road area to the own lane area. It is divided into lane areas.

その道路領域の認識は、この技術分野における周知の方法で行えばよい。例えば、道路領域認識部28は、距離情報生成部23から受け取った推定対象画像の各画素の奥行距離情報に基づいて、その推定対象画像上の道路領域を判別することができる。尚、道路領域を認識する際には、その推定対象画像(輝度画像)の輝度値情報を利用してもよい。   The recognition of the road area may be performed by a well-known method in this technical field. For example, the road area recognition unit 28 can determine the road area on the estimation target image based on the depth distance information of each pixel of the estimation target image received from the distance information generation unit 23. When recognizing the road region, the luminance value information of the estimation target image (luminance image) may be used.

自車線領域とは、推定対象画像の道路領域上で自車両の走行中の車線が占めている領域である。例えば、道路領域認識部28は、その道路領域上で自車両と同等の方向に動いている撮像対象(つまり自車両に対する相対運動量が小さい撮像対象)が検出された場合、その撮像対象が自車両と同じ車線を走行している他車両等であると判断して、この撮像対象が存在している領域を自車線領域と判定することができる。   The own lane region is a region occupied by the lane in which the host vehicle is traveling on the road region of the estimation target image. For example, when an imaging target moving in the same direction as the host vehicle on the road region (that is, an imaging target with a small relative momentum with respect to the host vehicle) is detected, the road region recognition unit 28 determines that the imaging target is the host vehicle. It can be determined that the vehicle is in the same lane as another vehicle or the like, and the region where the imaging target exists can be determined as the own lane region.

対向車線領域とは、推定対象画像の道路領域上で対向車の走行する車線が占めている領域である。例えば、道路領域認識部28は、その道路領域上で自車両と逆方向に動いている撮像対象(つまり自車両に対する相対運動量が大きい撮像対象)が検出された場合、その撮像対象が対向車線を走行している対向車等であると判断して、この撮像対象が存在している領域を対向車線領域と判定する。   The oncoming lane area is an area occupied by the lane in which the oncoming vehicle travels on the road area of the estimation target image. For example, when an imaging target moving in the opposite direction to the own vehicle (that is, an imaging target having a large relative momentum with respect to the own vehicle) is detected on the road region, the road area recognition unit 28 detects the opposite lane. It is determined that the vehicle is an oncoming vehicle or the like traveling, and the region where the imaging target exists is determined as the oncoming lane region.

尚、道路領域認識部28は、白線を検知することができた場合、その白線に基づいて自車線領域と対向車線領域とを識別することができる。   When the road area recognition unit 28 can detect the white line, the road area recognition unit 28 can identify the own lane area and the opposite lane area based on the white line.

路側領域認識部29は、推定対象画像上(各撮像対象が3次元的に認識されている場合には、その3次元空間上)で路側領域を認識するものである。路側領域とは、道路の両脇に占める領域であり、歩道、建築物や植物等の静的物体などの存在している領域である。その歩道や静的物体などの静止物は、自車両の運動量に相当する相対運動量(つまり、自車両の移動方向とは逆向きの当該自車両と同じ移動量)を持つ。このため、路側領域認識部29は、例えば、推定対象画像上で自車両の運動量に相当する相対運動量を持つ撮像対象)が検出された場合、その撮像対象が存在している領域を路側領域と判定する。ここで、この路側領域では、自車両の速度に基づいて、各画素の2次元の動きベクトルの大きさを推定してもよい。尚、推定対象画像上では、空等の背景も自車両の運動量に相当する相対運動量を持つ。このため。路側領域認識部29には、背景についても路側領域と同等の領域として認識させてもよい。   The roadside area recognition unit 29 recognizes the roadside area on the estimation target image (in the three-dimensional space when each imaging target is recognized three-dimensionally). The roadside area is an area that occupies both sides of the road, and is an area where static objects such as sidewalks, buildings, and plants are present. The stationary object such as a sidewalk or a static object has a relative momentum corresponding to the momentum of the own vehicle (that is, the same movement amount as that of the own vehicle in the direction opposite to the movement direction of the own vehicle). For this reason, for example, when an imaging target having a relative momentum corresponding to the momentum of the host vehicle is detected on the estimation target image, the roadside region recognition unit 29 determines the region where the imaging target exists as the roadside region. judge. Here, in this roadside region, the size of the two-dimensional motion vector of each pixel may be estimated based on the speed of the host vehicle. On the estimation target image, the background such as the sky also has a relative momentum corresponding to the momentum of the host vehicle. For this reason. The roadside area recognition unit 29 may recognize the background as an area equivalent to the roadside area.

消失点検出部30は、推定対象画像上(各撮像対象が3次元的に認識されている場合には、その3次元空間上)で消失点を検出するものである。この消失点検出部30は、例えば、推定対象画像の各画素の奥行距離情報や輝度値情報、更には道路領域認識部28や路側領域認識部29の認識結果に基づいて、その推定対象画像上の道路の白線や路側領域の建築物の稜線等の直線成分を抽出する。そして、この消失点検出部30は、それらの直線成分を延長した交点又は当該交点に相当する点を求め、この交点等を消失点として検出する。また、この消失点検出部30は、時系列で得られた各撮像画像を用いて消失点の検出を行ってもよい。例えば、撮像装置10が自車両の前方を監視する場合には、一般的に撮像画像の中央部分やその付近に消失点が現れる。そして、前述したように、消失点やその付近においては、撮像画像間での見かけ上の動きが小さくなる。   The vanishing point detection unit 30 detects the vanishing point on the estimation target image (in the three-dimensional space when each imaging target is recognized three-dimensionally). For example, the vanishing point detection unit 30 is based on the depth distance information and luminance value information of each pixel of the estimation target image, and further based on the recognition result of the road region recognition unit 28 and the road side region recognition unit 29, on the estimation target image. Straight line components such as white lines of roads and ridgelines of roadside area buildings are extracted. And this vanishing point detection part 30 calculates | requires the intersection which extended those linear components, or the point corresponded to the said intersection, and detects this intersection etc. as a vanishing point. The vanishing point detection unit 30 may detect the vanishing point using each captured image obtained in time series. For example, when the imaging device 10 monitors the front of the host vehicle, a vanishing point generally appears at or near the center of the captured image. As described above, the apparent movement between captured images is small at or near the vanishing point.

領域設定部31は、撮像対象検出部27で検出された推定対象画像上における撮像対象の位置情報と、道路領域認識部28と路側領域認識部29とで認識された領域(自車線領域と対向車線領域と路側領域)の位置情報と、推定対象画像上における消失点から各画素までの距離と、推定対象画像の各画素の奥行距離と、その各画素の2次元の動きベクトルの大きさの推定値と、の内の少なくとも1つに基づいて、推定対象画像を複数の領域に分割する。具体的には、各画素の消失点からの距離と各画素の奥行距離と各画素の2次元の動きベクトルの大きさの推定値とに基づいて、撮像対象毎の領域と自車線領域と対向車線領域と路側領域とを更に下記の1から第3の領域に分割する。   The area setting unit 31 detects the position information of the imaging target on the estimation target image detected by the imaging target detection unit 27 and the area recognized by the road area recognition unit 28 and the roadside area recognition unit 29 (opposite the own lane area). Lane area and roadside area), the distance from the vanishing point to each pixel on the estimation target image, the depth distance of each pixel of the estimation target image, and the size of the two-dimensional motion vector of each pixel The estimation target image is divided into a plurality of regions based on at least one of the estimated values. Specifically, based on the distance from the vanishing point of each pixel, the depth distance of each pixel, and the estimated value of the two-dimensional motion vector of each pixel, the area for each imaging target and the own lane area are opposed to each other. The lane area and the roadside area are further divided into the following first to third areas.

第1領域は、自車両(撮像装置10)に対する遠方領域であり、消失点とその周辺の領域である。消失点の周辺の領域(つまり消失点からの距離)は、例えば、連続して撮像された2つの撮像画像において、見かけ上の動きが所定値よりも小さい領域とする。その所定値は、例えば、動きを上手く推定できない大きさにする。第2領域は、自車両(撮像装置10)に対する近傍領域であり、自車両(撮像装置10)に対する奥行距離が所定距離以下の領域である。その所定距離は、連続して撮像された2つの撮像画像において、見かけ上の動きが明確であり、動きを上手く推定できる距離にする。例えば、この第2領域は、推定対象画像上の遠方領域を除いた残りの領域にしてもよい。第3領域は、推定対象画像で画素の2次元の動きベクトルの大きさが推定できた後で設定される領域であり、その推定値に基づき同じ撮像対象であると推定できる画素の集合した領域である。つまり、この第3領域は、その推定値が同等の大きさでかつ略同等の大きさの領域のことである。第3領域の特定が可能な場合には、この第3領域が第1領域や第2領域上に存在していたとしても、第1領域や第2領域ではなく第3領域として設定する。   The first region is a distant region with respect to the host vehicle (imaging device 10), and is a vanishing point and a region around it. The area around the vanishing point (that is, the distance from the vanishing point) is, for example, an area in which the apparent movement is smaller than a predetermined value in two captured images that are continuously captured. The predetermined value is, for example, a size that cannot be used to estimate the motion well. The second region is a neighborhood region with respect to the host vehicle (imaging device 10), and is a region whose depth distance to the host vehicle (imaging device 10) is equal to or less than a predetermined distance. The predetermined distance is a distance at which the apparent movement is clear and the movement can be estimated well in two captured images that are successively captured. For example, this second region may be the remaining region excluding the far region on the estimation target image. The third region is a region that is set after the size of the two-dimensional motion vector of the pixel can be estimated in the estimation target image, and is a region where the pixels that can be estimated to be the same imaging target based on the estimated value It is. That is, the third region is a region having an estimated value that is the same size and substantially the same size. When the third area can be specified, even if the third area exists on the first area or the second area, the third area is set as the third area instead of the first area or the second area.

実施例の探索画像設定部24は、推定対象画像のそれぞれの画素毎に探索画像の設定を行う。これに対して、本変形例の探索画像設定部24は、その複数に分割された推定対象画像の領域毎に探索画像の設定を行う。   The search image setting unit 24 of the embodiment sets a search image for each pixel of the estimation target image. On the other hand, the search image setting unit 24 according to the present modification sets the search image for each region of the estimation target image divided into a plurality.

例えば、探索画像設定部24には、第1領域の場合、第2領域と比べて、推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を第1領域に対応付けた探索画像として設定させる。換言するならば、第2領域の場合には、第1領域と比べて、推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を第2領域に対応付けた探索画像として設定させる。つまり、探索画像設定部24は、自車両に対して遠方に存在している領域ほど、推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を当該領域に対応付けた探索画像として設定する一方、自車両の近くに存在している領域ほど、推定対象画像に対して撮像時間のより近い画像情報記憶部22の撮像画像を当該領域に対応付けた探索画像として設定する。また、探索画像設定部24は、第3領域の場合、この第3領域に関わる2次元の動きベクトルの大きさの推定値を求めたときと同じ撮像間隔で探索画像を設定する。つまり、第3領域の場合には、その撮像間隔だけ推定対象画像の撮像時からより離れた画像情報記憶部22の撮像画像を第3領域に対応付けた探索画像として設定させる。   For example, in the search image setting unit 24, in the case of the first region, the captured image of the image information storage unit 22 that has a longer imaging time than the estimation target image is associated with the first region. It is set as the attached search image. In other words, in the case of the second area, as compared with the first area, the captured image of the image information storage unit 22 whose imaging time is closer to the estimation target image is used as a search image associated with the second area. Let it be set. That is, the search image setting unit 24 associates the captured image of the image information storage unit 22 that is more distant from the estimation target image in the region farther away from the host vehicle with the region. On the other hand, as the area closer to the host vehicle is set as the search image, the captured image of the image information storage unit 22 whose imaging time is closer to the estimation target image is set as the search image associated with the area. To do. In the case of the third region, the search image setting unit 24 sets the search image at the same imaging interval as when the estimated value of the size of the two-dimensional motion vector related to the third region is obtained. That is, in the case of the third area, the captured image of the image information storage unit 22 that is further away from the time of capturing the estimation target image by the imaging interval is set as a search image associated with the third area.

探索画像設定部24は、道路領域認識部28及び路側領域認識部29で認識された領域(自車線領域と対向車線領域と路側領域)の位置情報と各画素の奥行距離情報とに基づいて、次のように探索画像を設定してもよい。例えば、探索画像設定部24には、自車線領域の場合、奥行距離が同等であるならば、対向車線領域の場合と比較して、推定対象画像に対して撮像時間のより離れている画像情報記憶部22の撮像画像を探索画像として設定させる。   The search image setting unit 24 is based on the position information of the areas recognized by the road area recognition unit 28 and the roadside area recognition unit 29 (the own lane area, the oncoming lane area, and the roadside area) and the depth distance information of each pixel. A search image may be set as follows. For example, in the case of the own lane region, the search image setting unit 24 sets the image information that is farther from the estimation target image than the estimation target image if the depth distance is the same. The captured image in the storage unit 22 is set as a search image.

探索画像設定部24は、推定対象画像上で設定された領域と探索画像との対応付け情報を当該領域毎に注目点動き推定部25に送る。   The search image setting unit 24 sends association information between a region set on the estimation target image and the search image to the attention point motion estimation unit 25 for each region.

本変形例の注目点動き推定部25は、推定対象画像上で注目点を設定し、その注目点が含まれた領域に対応付けられた探索画像の特定を対応付け情報に基づいて行う。そして、この注目点動き推定部25は、その特定した探索画像を画像情報記憶部22の撮像画像の中から読み込み、その注目点の2次元の動きを推定する。尚、この注目点動き推定部25には、対応付け情報の無い推定対象画像の画素を注目点に設定させない。   The attention point motion estimation unit 25 of the present modification sets an attention point on the estimation target image, and specifies a search image associated with the region including the attention point based on the association information. The attention point motion estimation unit 25 reads the identified search image from the captured image of the image information storage unit 22 and estimates the two-dimensional motion of the attention point. The attention point motion estimation unit 25 does not set pixels of the estimation target image having no association information as attention points.

本変形例の3次元運動推定部26は、実施例と同じように、推定対象画像の各画素の3次元運動量を推定する。そして、この3次元運動推定部26は、探索画像設定部24の設定した領域毎に3次元運動量を平滑化する。   The three-dimensional motion estimation unit 26 according to the present modification estimates the three-dimensional motion amount of each pixel of the estimation target image, as in the embodiment. The three-dimensional motion estimation unit 26 smoothes the three-dimensional motion amount for each region set by the search image setting unit 24.

図8には、この動き推定装置の演算処理動作に関するフローチャートを示している。   FIG. 8 shows a flowchart relating to the arithmetic processing operation of this motion estimation apparatus.

本変形例では、実施例と同じように、撮像画像(輝度画像)の情報を撮像装置10から取得し(ステップST11)、これを時系列で画像情報記憶部22に一時記憶させる(ステップST12)。また、本変形例では、実施例と同じように、その撮像画像(輝度画像)に基づいて距離画像を生成する(ステップST13)。   In the present modification, as in the embodiment, information of the captured image (luminance image) is acquired from the imaging device 10 (step ST11), and is temporarily stored in the image information storage unit 22 in time series (step ST12). . Further, in the present modification, a distance image is generated based on the captured image (luminance image) as in the embodiment (step ST13).

本変形例においては、消失点検出部30が推定対象画像上の消失点を検出し(ステップST14)、かつ、領域設定部31が推定対象画像を複数の領域に分割する(ステップST15)。   In this modification, the vanishing point detection unit 30 detects a vanishing point on the estimation target image (step ST14), and the region setting unit 31 divides the estimation target image into a plurality of regions (step ST15).

探索画像設定部24は、その領域に対応付ける探索画像を領域毎に設定する(ステップST16)。   The search image setting unit 24 sets a search image associated with the area for each area (step ST16).

注目点動き推定部25は、推定対象画像の各画素の中から注目点を設定し(ステップST17)、その注目点が含まれた領域に対応付けられた探索画像を画像情報記憶部22の撮像画像の中から読み込んで、その注目点の2次元の動きを推定する(ステップST18)。   The attention point motion estimation unit 25 sets an attention point from among the pixels of the estimation target image (step ST <b> 17), and captures a search image associated with the region including the attention point in the image information storage unit 22. The image is read from the image, and the two-dimensional movement of the attention point is estimated (step ST18).

注目点動き推定部25は、推定対象画像上で動きの推定対象となる全ての注目点(つまり推定対象画像の全画素から前述した対応付け情報が無いものを除いた画素)の動きの推定を終えたのか否かを判定する(ステップST19)。注目点動き推定部25は、推定対象となる全ての注目点の動きの推定が済んでいない場合、ステップST17に戻り、別の注目点に対する動きの推定を行う。そして、推定対象となる全ての注目点の動きの推定を終えた場合、3次元運動推定部26は、その各注目点について、その奥行距離情報と2次元の動きの推定結果に基づき3次元運動量を推定する(ステップST20)。その際、この3次元運動推定部26は、その3次元運動量を領域毎に平滑化する。   The point-of-interest motion estimation unit 25 estimates the motion of all points of interest (that is, pixels excluding those having no association information described above from all the pixels of the estimation target image) on the estimation target image. It is determined whether or not it is finished (step ST19). The attention point motion estimation unit 25 returns to step ST <b> 17 when the estimation of the motions of all the attention points to be estimated has not been completed, and estimates the motion for another attention point. Then, when the estimation of the motion of all the points of interest to be estimated has been completed, the three-dimensional motion estimation unit 26 calculates the three-dimensional momentum of each target point based on the depth distance information and the estimation result of the two-dimensional motion. Is estimated (step ST20). At this time, the three-dimensional motion estimation unit 26 smoothes the three-dimensional momentum for each region.

撮像対象検出部27は、その各注目点の奥行距離情報と当該各注目点の3次元運動量の推定結果とに基づいて、推定対象画像上で撮像対象毎の区分けを行い、この推定対象画像上の各撮像対象を検出する(ステップST21)。画像処理ECU120においては、その各撮像対象の自車両に対する位置と相対速度の情報を後段の制御システムに出力する(ステップST22)。   The imaging target detection unit 27 classifies each imaging target on the estimation target image based on the depth distance information of each attention point and the estimation result of the three-dimensional momentum of each attention point. Are detected (step ST21). The image processing ECU 120 outputs information on the position and relative speed of each imaging target with respect to the host vehicle to the subsequent control system (step ST22).

このように、本変形例の動き推定装置は、推定対象画像を所定条件の下で複数に分割し、その領域毎に探索画像を適応的に設定する。このため、この動き推定装置は、撮像間隔の短い撮像画像間において見かけ上の動きの小さい遠方領域の撮像対象に関しても、その動きを精度良く推定することができる。また、この動き推定装置は、推定した3次元運動量を領域毎に平滑化するので、動きの推定精度の分散を小さくすることができる。また、この動き推定装置は、そのような平滑化によって、奥行距離情報に基づいて動きを直接推定できなかった画素についても、その周辺の画素の情報から動きを推定することができるので、動きが推定できない画素の数量を減らし、領域内で密度の高い動きの推定結果を得ることができる。また、この動き推定装置は、実施例のように画素単位で探索画像を切り替えていくものと比較して、同一領域内の場合、その領域内の各画素の動きを推定するに際して同じ探索画像を用いればよいので、演算処理時間や演算コストの低減が可能になる。   As described above, the motion estimation apparatus according to the present modification divides the estimation target image into a plurality of parts under a predetermined condition, and adaptively sets a search image for each region. For this reason, this motion estimation apparatus can accurately estimate the motion of an imaging target in a distant region with a small apparent motion between captured images with a short imaging interval. In addition, since this motion estimation device smoothes the estimated three-dimensional momentum for each region, it is possible to reduce the variance of motion estimation accuracy. In addition, the motion estimation apparatus can estimate the motion from the information of the surrounding pixels even for pixels for which the motion could not be directly estimated based on the depth distance information by such smoothing. It is possible to reduce the number of pixels that cannot be estimated and obtain a motion estimation result with high density in the region. In addition, this motion estimation device compares the search image for each pixel in the same region when estimating the motion of each pixel in the same region as compared with the case where the search image is switched in units of pixels as in the embodiment. Therefore, it is possible to reduce calculation processing time and calculation cost.

1,2 物体検出システム
10 撮像装置
20,120 画像処理ECU
21 画像情報取得部
22 画像情報記憶部
23 距離情報生成部
24 探索画像設定部
25 注目点動き推定部
26 3次元運動推定部
27 撮像対象検出部
28 道路領域認識部
29 路側領域認識部
30 消失点検出部
31 領域設定部
DESCRIPTION OF SYMBOLS 1, 2 Object detection system 10 Imaging device 20,120 Image processing ECU
DESCRIPTION OF SYMBOLS 21 Image information acquisition part 22 Image information storage part 23 Distance information generation part 24 Search image setting part 25 Attention point motion estimation part 26 Three-dimensional motion estimation part 27 Imaging target detection part 28 Road area recognition part 29 Roadside area recognition part 30 Disappearance inspection Outlet 31 Area setting part

Claims (4)

自車両の周辺の撮像領域を撮像し、輝度値情報が含まれた画素の集合体である撮像画像を時系列で出力する撮像装置と、
前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、
前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、
動き推定対象の前記撮像画像の画素が自車両に対して遠方に存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する一方、前記動き推定対象の撮像画像の前記画素が自車両の近くに存在しているほど、該動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該画素に対応付けた探索画像として設定する探索画像設定部と、
前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点の画素に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、
を備えることを特徴とした動き推定装置。
An imaging device that images an imaging region around the host vehicle and outputs a captured image that is an aggregate of pixels including luminance value information in time series;
An image information storage unit for storing information of the captured image in association with an imaging time;
A distance information generator that calculates depth distance information from the imaging device to pixels of the captured image based on luminance value information of the captured image;
As the pixels of the captured image that is the target of motion estimation are located farther from the host vehicle, the captured image of the image information storage unit that is further away from the captured image of the target of motion estimation is the imaging time. While set as a search image associated with the pixel, the closer the pixel of the captured image of the motion estimation target is to the vehicle, the closer the imaging time is to the captured image of the motion estimation target A search image setting unit that sets the captured image of the image information storage unit as a search image associated with the pixel;
A pixel of the captured image of the motion estimation target is set as a point of interest for each pixel, a corresponding point corresponding to the point of interest is searched from the search image associated with the pixel of the point of interest, and the point of interest A motion estimator for estimating motion;
A motion estimation apparatus comprising:
前記探索画像設定部は、前記動き推定対象の撮像画像の前記画素における2次元の動きベクトルの大きさの推定値が大きくなるほど、撮像時間のより新しい前記画像情報記憶部の前記撮像画像を前記探索画像に設定することを特徴とした請求項1に記載の動き推定装置。   The search image setting unit searches for the captured image of the image information storage unit with a newer imaging time as the estimated value of the size of a two-dimensional motion vector in the pixel of the captured image of the motion estimation target increases. The motion estimation device according to claim 1, wherein the motion estimation device is set to an image. 自車両の周辺の撮像領域を撮像し、輝度値情報が含まれた画素の集合体である撮像画像を時系列で出力する撮像装置と、
前記撮像画像の情報を撮像時間に関連付けて記憶させる画像情報記憶部と、
前記撮像画像の輝度値情報に基づいて前記撮像装置から当該撮像画像の画素までの奥行距離情報を算出する距離情報生成部と、
動き推定対象の前記撮像画像を複数の領域に分割する領域設定部と、
自車両に対して遠方に存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより離れている前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する一方、自車両の近くに存在している前記領域ほど、前記動き推定対象の撮像画像に対して撮像時間のより近い前記画像情報記憶部の前記撮像画像を当該領域に対応付けた探索画像として設定する探索画像設定部と、
前記動き推定対象の撮像画像の画素を画素毎に注目点として設定し、該注目点に対応する対応点を当該注目点が含まれた前記領域に対応付けた前記探索画像上から探索して、該注目点の動きを推定する動き推定部と、
を備えることを特徴とした動き推定装置。
An imaging device that images an imaging region around the host vehicle and outputs a captured image that is an aggregate of pixels including luminance value information in time series;
An image information storage unit for storing information of the captured image in association with an imaging time;
A distance information generator that calculates depth distance information from the imaging device to pixels of the captured image based on luminance value information of the captured image;
An area setting unit that divides the captured image of the motion estimation target into a plurality of areas;
The search image that associates the captured image of the image information storage unit that is more distant from the captured image of the motion estimation target in the region farther away from the host vehicle with the region. On the other hand, the search that associates the captured image of the image information storage unit with the region closer to the motion estimation target in the image information storage unit, the closer to the region that is present near the host vehicle A search image setting unit to be set as an image;
A pixel of the captured image of the motion estimation target is set as a point of interest for each pixel, and a corresponding point corresponding to the point of interest is searched from the search image associated with the region including the point of interest. A motion estimation unit for estimating the motion of the attention point;
A motion estimation apparatus comprising:
前記領域設定部は、前記動き推定対象の撮像画像上における撮像対象の位置情報と、前記動き推定対象の撮像画像上で自車線と対向車線と路側とを区分けした領域の位置情報と、前記動き推定対象の撮像画像上における消失点から各画素までの距離と、前記動き推定対象の撮像画像の各画素の奥行距離と、前記動き推定対象の撮像画像の前記画素の2次元の動きベクトルの大きさの推定値と、の内の少なくとも1つに基づいて、前記動き推定対象の撮像画像を複数の領域に分割することを特徴とした請求項3に記載の動き推定装置。   The area setting unit includes position information of an imaging target on the captured image of the motion estimation target, position information of an area obtained by dividing the own lane, the oncoming lane, and the roadside on the captured image of the motion estimation target, and the motion The distance from the vanishing point to each pixel on the captured image of the estimation target, the depth distance of each pixel of the captured image of the motion estimation target, and the magnitude of the two-dimensional motion vector of the pixel of the captured image of the motion estimation target The motion estimation apparatus according to claim 3, wherein the captured image to be the motion estimation target is divided into a plurality of regions based on at least one of the estimated values.
JP2014124793A 2014-06-17 2014-06-17 Motion estimation device Pending JP2016004446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014124793A JP2016004446A (en) 2014-06-17 2014-06-17 Motion estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014124793A JP2016004446A (en) 2014-06-17 2014-06-17 Motion estimation device

Publications (1)

Publication Number Publication Date
JP2016004446A true JP2016004446A (en) 2016-01-12

Family

ID=55223669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014124793A Pending JP2016004446A (en) 2014-06-17 2014-06-17 Motion estimation device

Country Status (1)

Country Link
JP (1) JP2016004446A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088840A (en) * 2019-04-11 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
WO2020111053A1 (en) * 2018-11-28 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020204804A (en) * 2019-06-14 2020-12-24 トヨタ自動車株式会社 Image recognition device
JP2022523319A (en) * 2019-02-01 2022-04-22 テスラ,インコーポレイテッド Generating ground truth for machine learning from time series elements
WO2023127124A1 (en) * 2021-12-28 2023-07-06 日本電気株式会社 Imaging system, imaging device, imaging method, and recording medium
JP2023098545A (en) * 2021-12-28 2023-07-10 日本電気株式会社 Imaging system, imaging method, and computer program
WO2024154223A1 (en) * 2023-01-17 2024-07-25 日本電気株式会社 Information processing device, information processing method, and recording medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020111053A1 (en) * 2018-11-28 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020088688A (en) * 2018-11-28 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
US12223428B2 (en) 2019-02-01 2025-02-11 Tesla, Inc. Generating ground truth for machine learning from time series elements
JP2022523319A (en) * 2019-02-01 2022-04-22 テスラ,インコーポレイテッド Generating ground truth for machine learning from time series elements
JP7467485B2 (en) 2019-02-01 2024-04-15 テスラ,インコーポレイテッド Generating ground truth for machine learning from time series elements
JP2020088840A (en) * 2019-04-11 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
JP7176478B2 (en) 2019-06-14 2022-11-22 トヨタ自動車株式会社 Image recognition device
US11507833B2 (en) 2019-06-14 2022-11-22 Toyota Jidosha Kabushiki Kaisha Image recognition apparatus
JP2020204804A (en) * 2019-06-14 2020-12-24 トヨタ自動車株式会社 Image recognition device
WO2023127124A1 (en) * 2021-12-28 2023-07-06 日本電気株式会社 Imaging system, imaging device, imaging method, and recording medium
JP2023098545A (en) * 2021-12-28 2023-07-10 日本電気株式会社 Imaging system, imaging method, and computer program
JP7371762B1 (en) * 2021-12-28 2023-10-31 日本電気株式会社 Imaging system, imaging device, imaging method, and recording medium
JP7371712B2 (en) 2021-12-28 2023-10-31 日本電気株式会社 Imaging system, imaging method, and computer program
WO2024154223A1 (en) * 2023-01-17 2024-07-25 日本電気株式会社 Information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP2016004446A (en) Motion estimation device
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP5320828B2 (en) Pedestrian detection device and pedestrian detection method
JP5714940B2 (en) Moving body position measuring device
JP2006105661A (en) Method for estimating plane by stereo image
JP5267596B2 (en) Moving body detection device
JP4553072B1 (en) Image integration apparatus and image integration method
JP5999127B2 (en) Image processing device
US9117115B2 (en) Exterior environment recognition device and exterior environment recognition method
JP5075672B2 (en) Object detection apparatus and method
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP2004032460A (en) Image processing apparatus and method therefor
JP6524529B2 (en) Building limit judging device
US12118801B2 (en) Object recognition device
JP2009053818A (en) Image processor and method thereof
JP2007316685A (en) Traveling path boundary detection device and traveling path boundary detection method
JP2007249257A (en) Apparatus and method for detecting movable element
JP4067340B2 (en) Object recognition device and object recognition method
JP5369921B2 (en) Object detection apparatus and object detection method
JP2004280194A (en) Forward monitor and method therefor
JP2009180661A (en) Distance measuring device and distance measuring method
JP2016004382A (en) Motion information estimation device
JP4575315B2 (en) Object detection apparatus and method
JP6416654B2 (en) White line detector