JP4882571B2 - Vehicle monitoring device - Google Patents
Vehicle monitoring device Download PDFInfo
- Publication number
- JP4882571B2 JP4882571B2 JP2006198307A JP2006198307A JP4882571B2 JP 4882571 B2 JP4882571 B2 JP 4882571B2 JP 2006198307 A JP2006198307 A JP 2006198307A JP 2006198307 A JP2006198307 A JP 2006198307A JP 4882571 B2 JP4882571 B2 JP 4882571B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- monitoring device
- background
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012806 monitoring device Methods 0.000 title claims description 18
- 238000012545 processing Methods 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 29
- 238000012544 monitoring process Methods 0.000 claims description 11
- 238000012935 Averaging Methods 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 claims 1
- 238000003708 edge detection Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
Description
本発明は、車両周囲の映像をモニタに表示する車両用監視装置に関する。 The present invention relates to a vehicle monitoring apparatus that displays an image around a vehicle on a monitor.
従来から、車両の後方や後側方を確認するために、カメラで撮影された周囲映像をモニタに表示する装置が知られている(例えば、特許文献1参照)。その装置では、モニタ上の注目すべき対象物に対して強調処理を施すことで、その対象物を観察者が認識しやすいようにしている。 2. Description of the Related Art Conventionally, there has been known an apparatus that displays a surrounding image captured by a camera on a monitor in order to confirm the rear or rear side of the vehicle (see, for example, Patent Document 1). In the apparatus, the target object on the monitor is emphasized to make it easier for the observer to recognize the target object.
しかしながら、モニタ上には、カメラで撮影された周囲映像が実際の視野範囲よりも狭い視野範囲に縮小されて表示されるので、狭い範囲により多くの映像情報が存在することになる。そのため、従来のように注意すべき対象物に強調処理を施しても情報量の多さは変わらず、情報量の多さが対象物の認知・判断に悪影響を与えてしまうという点で問題がある。 However, since the surrounding image captured by the camera is displayed on the monitor by being reduced to a visual field range narrower than the actual visual field range, more video information exists in the narrow range. Therefore, even if emphasis processing is performed on an object to be noted as in the past, the amount of information does not change, and there is a problem in that the amount of information adversely affects recognition and judgment of the object. is there.
本発明は、撮像装置で撮像された車両後方の撮像画像を表示装置に表示する車両用監視装置に適用され、前記撮像装置により撮像されたフレーム画像を入力し、前記フレーム画像を、監視すべき対象の候補である対象物を含む対象画像領域と、前記フレーム画像から前記対象画像領域を除いた背景画像領域とに分割する分割手段と、前記分割手段で分割された前記対象画像領域のうち、各対象画像領域に含まれている対象物と自車両との間の距離および相対速度に基づいて自車両に接近していないと判定された対象物、ならびに、前記背景画像領域のうち地平線の上側にある背景にぼかし処理を施す画像処理手段とを備えたことを特徴とする。 The present invention is applied to a vehicle monitoring device that displays a captured image of a rear side of a vehicle captured by an imaging device on a display device . The frame image captured by the imaging device is input and the frame image should be monitored. Of the target image region including a target object that is a target candidate, a dividing unit that divides the frame image into a background image region that excludes the target image region, and the target image region divided by the dividing unit , An object determined not approaching the host vehicle based on the distance and relative speed between the target object included in each target image region and the host vehicle, and an upper side of the horizon line in the background image region And an image processing means for performing a blurring process on the background .
本発明によれば、表示された画像の不要な情報量が減少し、注意すべき対象の認知・判断が容易となり、例えば、接近する移動体が認識しやすくなる。 According to the present invention, an unnecessary amount of information of a displayed image is reduced, and recognition and determination of an object to be noted is facilitated. For example, an approaching moving body is easily recognized.
以下、図を参照して本発明を実施するための最良の形態について説明する。図1は本発明による車両用監視装置の一実施の形態を示すブロック図である。本実施の形態の監視装置は、カメラ1、映像処理部2、モニタ3を備えている。カメラ1はCCD撮像素子のような撮像デバイスを用いた撮像装置であり、例えば、自車両の後部ほぼ中央に設置されて、自車両の後方を連続的に撮影する。
Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a vehicle monitoring apparatus according to the present invention. The monitoring apparatus according to the present embodiment includes a
カメラ1により連続的に撮影された画像は、所定時間毎に区切られた画像フレーム毎に映像処理部2に取り込まれる。映像処理部2は、画像処理等を行うCPU、制御プログラムや各種データが記憶されるROMやRAMなどを備えている。RAMには、入力画像データやモニタ3に表示する出力画像データが一時的に格納される。映像処理部2に取り込まれた画像は所定の映像処理が施され、表示用のモニタ3に送られる。モニタ3には、映像処理後の後方映像が監視画像として表示される。映像処理部2には、自車両の状況に関する車両情報や、自車両の周囲状況に関する周囲情報が入力される。
Images continuously photographed by the
車両情報としては、車速センサや加速度センサからの車速や横G、ナビゲーション装置からのナビゲーション情報(自車両の現在位置や周囲の道路の形状)などがある。周囲情報としては、車両に搭載しているレーダーやソナーからの周囲車両等に関する位置情報や速度情報がある。レーダーを用いることにより比較的離れている車両の位置や速度が得られ、一方、ソナーを用いることにより近接車両(例えば、側方を通過する駐車車両や後続するバイクなど)の位置や相対速度が得られる。 The vehicle information includes vehicle speed and lateral G from the vehicle speed sensor and acceleration sensor, navigation information from the navigation device (the current position of the host vehicle and the shape of the surrounding road), and the like. As the surrounding information, there are position information and speed information related to surrounding vehicles from radar and sonar mounted on the vehicle. By using radar, the position and speed of relatively distant vehicles can be obtained, while by using sonar, the position and relative speed of nearby vehicles (for example, a parked vehicle passing by the side or a succeeding motorcycle) can be obtained. can get.
図2は、映像処理部2で行われる処理手順の概略を示したものであり、この処理は車両用監視装置の電源が投入されるとスタートする。ステップS1では、カメラ1から最新のフレームの画像データを取り込む。図3は、取り込まれた画像データの一例を示したものであり、後続車両、停車車両、道路面、建築物、空などが撮影されている。ステップS2では、エッジ検出、オプティックフローの検出、同じ色が連続している領域の検出などを行うことにより、映像領域を複数の領域に分割する。分割の際の領域抽出処理の詳細は後述する。
FIG. 2 shows an outline of a processing procedure performed in the
ステップS3では、分割領域毎にぼかし処理等の画像処理を行う。画像処理の詳細は後述するが、各分割領域毎にぼかすか否かの判定を行い、ぼかすと判定した分割領域に対してぼかし処理を施す。ステップS4では、各分割領域を統合して表示用の画像データを作成する。次いでステップS5では、統合された画像データをモニタに出力する。ステップS6では、電源スイッチがオフか否かを判定し、オンの場合にはステップS1ヘ進み、オフの場合には一連の処理を終了する。 In step S3, image processing such as blurring processing is performed for each divided region. Although details of the image processing will be described later, it is determined whether or not each divided area is to be blurred, and blurring processing is performed on the divided areas determined to be blurred. In step S4, the divided areas are integrated to create display image data. Next, in step S5, the integrated image data is output to the monitor. In step S6, it is determined whether or not the power switch is off. If the power switch is on, the process proceeds to step S1, and if it is off, a series of processing ends.
[領域抽出処理の説明]
次に、分割処理の際の抽出処理について、その概略を図4〜6を参照して説明する。ここでは、説明を簡単にするために、図3に示す画像に代えて図4に示す画像を用いて説明する。抽出処理にあたって、映像処理部2は、最新のフレームNの画像1(図4(b))と直前のフレームN−1の画像2(図4(a))とを取り込む。
[Description of area extraction processing]
Next, the outline of the extraction process in the division process will be described with reference to FIGS. Here, in order to simplify the description, the image shown in FIG. 4 will be used instead of the image shown in FIG. In the extraction process, the
図4(a),(b)に示すフレームN−1およびNのいずれの画像にも、監視すべき対象の候補である対象物10と、その他の背景とが映し出されている。背景には、建物20や電柱21や道路上の白線22などが含まれている。図4(b)の破線で示すように、時間経過によって、画像1の建物20、電柱21および白線22は画像2と比較すると後方に移動している。また、対象物10は自車両に接近しつつある車両であって、画面上では前方に移動している。
The
次いで、オプティックフローの検出を行う。オプティックフローとは、対象物体の動きをベクトルで表現するものであり、代表的な表現としては、対象物上のある一点の動きの方向とその速度の大きさを矢印の方向と長さで同時に表現するものである。オプティックフローの検出を行うためには、まず画像1および画像2の特徴点を抽出する。例えば、C.Harris and M.Stepehens. A combined corner and edge detector. In Proc. Alvey. Conf., pp189-162, 1987 で解説されているコーナー検出アルゴリズムを使用して、特徴点を抽出する。
Next, the optic flow is detected. The optic flow is a representation of the motion of the target object as a vector. A typical expression is that the direction of the movement of one point on the target and the magnitude of the velocity are simultaneously indicated by the direction and length of the arrow. To express. In order to detect the optic flow, first, feature points of the
画像1,2の特徴点を抽出したならば、画像1の特徴点と画像2の特徴点とのマッチング処理を行い、画像1の各特徴点に対してそれに対応する画像2の特徴点を検出する。例えば、画像1内の特徴点に対し、その近傍に存在する画像2内の複数の特徴点のうち色が最も近く、その差が所定の閾値よりも少ない特徴点を選択する。
Once the feature points of
図5(a)は、画像1上に画像1の特徴点(黒丸)と、対応する画像2の特徴点(黒三角)とを示したものであり、説明のため多数ある特徴点の一部のみを示した。画像1,2間で相対的に移動している対象物10、建物20および電柱21に関する特徴点については、黒丸と黒三角とが離れているが、矢印Rで示した空の領域の特徴点については、黒丸と黒三角とがほぼ同一位置となっている。なお、分かりやすいように、図5(a)においても図4(b)と同様の破線を示した。
FIG. 5A shows the feature points (black circles) of
そして、画像2の特徴点から画像1の対応する特徴点へと矢印を描くことにより、オプティックフローを得ることができる。図5(b)は、オプティックフローの一部を示したものである。建物20、電柱21、道路上の白線22などのオプティックフローOF1,OF2,OF3は後方へ向かう矢印となっているが、後方から自車両に近付いている対象物10に関するオプティックフローOF4は前方へと向かうような(図面上は左斜め下方向)矢印となっている。また、図5(a)の空の領域のように画像1,2の特徴点の位置が同じ領域では、オプティックフローOF5は点で表される。この時点では、図5(b)に示すように、画面領域上のオプティックフローが定まっただけで、各分割領域への分割はまだ行われていない。
An optic flow can be obtained by drawing an arrow from the feature point of
次に、画像1に関してエッジ検出を行う。このエッジ検出は、例えば、微分処理によるエッジ強調などのような周知の画像処理方法を用いて行われる。図4(a)は映像を簡単にした模式的な画像なので、エッジ検出後のエッジ画像も図4(a)とほとんど同じになる。例えば、建物20および電柱21と地面との境界がエッジ検出により検出されなかった場合には、エッジ検出後のエッジ画像は図5(c)に示すような画像となる。図5(c)では、色変化が小さくなっている車両後部のピラー部分や遠方の白線についても、エッジ検出されていない。
Next, edge detection is performed on the
このエッジ検出処理により、映像は複数の領域に分割される。そして、エッジにより分割されている領域に対し、その領域内の代表的なオプティックフロー(特徴点の動きとその方向)から、その領域の前フレームに対する移動の方向および量を求める。例えば、対象物10についてはオプティックフローOF4からそれらの値が得られ、建物20についてはオプティックフローOF1から得られる。
By this edge detection process, the video is divided into a plurality of regions. Then, for the region divided by the edge, the direction and amount of movement of the region with respect to the previous frame are obtained from the representative optic flow (feature point movement and direction) in the region. For example, those values are obtained from the optic flow OF4 for the
また、図5(a),(b)に示すように、空の領域の特徴点は移動しておらず、このような移動しない特徴点が存在する連続した領域として空の領域が検出される。さらに、分割された領域内に特徴点がほとんど存在しない場合には、その領域を囲むエッジ上の特徴点の移動の方向と量に着目する。例えば、色の陰影がないような領域(道路上の白線22など)の場合には、そのエッジ上に特徴点が集中する。なお、路面のように変化の少ない領域では、画像1,2間の特徴点のマッチング処理に失敗し、移動していないとみなされる特徴点が検出されることがあるが、この領域も背景の一部に含められる。
Further, as shown in FIGS. 5A and 5B, the feature points of the empty region are not moved, and the empty region is detected as a continuous region where such non-moving feature points exist. . Further, when there are almost no feature points in the divided area, attention is paid to the direction and amount of movement of the feature points on the edge surrounding the area. For example, in an area where there is no color shading (such as the
このようにして、エッジ検出とオプティックフロー検出により、監視すべき対象物として対象物10が検出される。それ以外の領域の特徴点は、オプティックフローOF1〜OF3で示すように画面中央付近の消失点FOC(Focus Of Compression)に向かって移動しているものと、空の領域のように特徴点が移動しないものとに分けられる。対象物10以外の領域については、背景を地平線より下の背景Aと、地平線よりも上の背景Bとに分割する。空の領域は背景Bに含まれる。なお、オプティックフローOF1〜OF3の傾向から、走行中の背景の移動方向が全体的に図6のようになっているのが分かる。
In this way, the
[ぼかし処理の説明]
上述した抽出処理を行うことにより、図3に示す映像は図7,8に示すように5つの分割領域に分割される。図7(a)〜(c)は3つの対象物11,12,13のそれぞれに関する分割領域を示し、図8(a),(b)は背景A,Bの分割領域を示している。図2のステップS3の処理では、これらの分割領域の画像に対してぼかし処理を含む画像処理を施す。
[Explanation of blur processing]
By performing the extraction process described above, the video shown in FIG. 3 is divided into five divided regions as shown in FIGS. FIGS. 7A to 7C show the divided areas for each of the three objects 11, 12, and 13, and FIGS. 8A and 8B show the divided areas for the backgrounds A and B. FIG. In the processing of step S3 in FIG. 2, image processing including blurring processing is performed on the images of these divided regions.
図9は、各分割領域に対する画像処理の概略を説明する図であり、処理の流れを示したものである。先ず、対象物11〜13の画像に対する処理について説明する。本実施の形態で分割領域毎に画像処理を施すのは、後方から自車両に接近する車両(対象物)に対して注意を喚起するためである。そのため、対象物11〜13に画像処理を施す際には、対象物11〜13との距離および相対速度に基づいて処理を行う。これらの距離および相対速度は、車両に搭載されているレーダーやソナーからの情報に基づいても良いし、検出されたオプティックフローから推測される距離および相対速度を用いても良い。 FIG. 9 is a diagram for explaining the outline of image processing for each divided region, and shows the flow of processing. First, processing for images of the objects 11 to 13 will be described. The reason why image processing is performed for each divided region in the present embodiment is to call attention to a vehicle (target object) that approaches the host vehicle from behind. Therefore, when performing image processing on the objects 11 to 13, processing is performed based on the distance and relative speed with respect to the objects 11 to 13. These distances and relative velocities may be based on information from a radar or sonar mounted on the vehicle, or distances and relative velocities estimated from detected optic flows may be used.
対象物11の場合には、自車両よりも速度が速く非常に接近している移動体なので、目に付きやすいように強調処理を施す。例えば、コントラストを高めるような画像処理を施す。対象物11のオプティックフローは図5(b)のオプティックフローOF4と同様に進行方向に向いており、オプティックフローから接近する移動体であると認識される。 In the case of the object 11, since it is a moving body that is faster and much closer than the host vehicle, an emphasis process is performed so that the object 11 is easily noticeable. For example, image processing that increases contrast is performed. The optic flow of the object 11 is directed in the traveling direction in the same manner as the optic flow OF4 in FIG. 5B, and is recognized as a moving body approaching from the optic flow.
対象物12の場合には、道路脇に停車している車両であることが距離および相対速度から判定され、注意を払わなくても良い対象と推定されるのでぼかし処理を施す。停車している対象物12のオプティックフローは、図5(b)に示す建物20や電柱21のオプティックフローOF1,OF2ように背景のオプティックフローと同じになる。このように、停止している対象物12や、走行車両であっても走行速度が遅くて自車両から遠ざかる移動体の場合には、ぼかし処理が施されることになる。
In the case of the object 12, it is determined from the distance and relative speed that the vehicle is parked on the side of the road, and it is estimated that the object need not pay attention. The optic flow of the stationary object 12 is the same as the optic flow of the background, as shown in FIG. 5B, such as the optic flows OF1 and OF2 of the
ぼかし処理を施す場合、ぼかしの方向は対象物12のオプティックフローの方向とし、相対速度が大きいほどぼかし量(ぼかしの程度)を大きくする。オプティックフローの方向にぼかす場合、オプティックフローに沿った画素間で平均化してぼかし処理を行う。また、対象物の距離が近いものはぼかし量を大きくし、小さいものはぼかし量を小さくするようにしても良い。その結果、ぼかし処理された映像は、走行速度に応じた違和感のない映像となるとともに、ぼかし処理が施されていない領域の視認性が向上する。 When performing the blurring process, the blurring direction is set to the direction of the optic flow of the object 12, and the blurring amount (blurring degree) is increased as the relative speed is increased. When blurring in the direction of the optic flow, blur processing is performed by averaging between pixels along the optic flow. Further, the blur amount may be increased when the object is close, and the blur amount may be decreased when the object is small. As a result, the blurred image is an image that does not feel uncomfortable according to the traveling speed, and the visibility of the area that has not been blurred is improved.
ぼかし処理は、同一フレーム上において、対象としている領域の画素とその周辺の画素との間で平均化処理することにより行われる。また、ぼかし量の調整は、画像上において何ピクセル離れている画素を用いるかによって行われ、さらに、どの方向の画素と平均化する化によってぼかしの方向を変えることができる。平均化の際の重み付けを変えても良い。なお、ぼかし処理をフレームの異なる画像のデータを用いて行っても良いが、各フレーム単位での空間的な平均化を行うことで、見やすい映像と遅れのない映像の両立を図ることができる。 The blurring process is performed by performing an averaging process between the pixels in the target region and the surrounding pixels on the same frame. Further, the blur amount is adjusted depending on how many pixels away from the image are used, and the blur direction can be changed by averaging the pixels in which direction. You may change the weight in the case of averaging. Note that the blurring process may be performed using data of images having different frames, but by performing spatial averaging in units of frames, it is possible to achieve both easy-to-view video and video without delay.
対象物13の場合、距離が比較的に近く、徐々に近付いている移動体なので、注意すべき対象と推定しぼかし処理を施さない。このように、強調処理を施さない対象であっても、その周囲の領域にぼかし処理が施されることで注意を引きやすくなり、強調した場合と同様の効果が得られる。 In the case of the object 13, since the distance is relatively close and the moving object is gradually approaching, the object 13 is estimated as an object to be noted and is not subjected to the blurring process. As described above, even if the target is not subjected to the enhancement process, the blurring process is performed on the surrounding area, so that attention can be easily drawn, and the same effect as when the enhancement process is performed can be obtained.
地平線の下側の背景である背景Aの画像に関しては、ほとんどの領域が路面で占められており、一様なテクスチュアの路面は情報量が少なく対象物認識の妨げとならないので、より自然は映像となるようにぼかし処理を行わない。ただし、路面上に白線22がある場合、後方に移動しながら周期的に変化するので、不必要な変化を控えて観察者の認識負荷を軽減する意味から、白線22が並んでいる方向にぼかし処理を施す。その結果、周期的に並んだ白線が、あたかも一本の連続した白線のようになり、周期的変化の煩わしさを低減することができる。ここでは路面上の白線について説明したが、例えば、トンネル内の照明なども同様な周期的な映像となるので、同様のぼかし処理を施すようにする。
As for the image of background A, which is the background below the horizon, most of the area is occupied by the road surface, and since the road surface of a uniform texture has little information and does not interfere with object recognition, more natural images The blurring process is not performed so that However, when there is a
地平線の上側の背景である背景Bの画像に関しては、以下のような手順でぼかし処理を施す。背景Bの映像では、自車両の走行によって建物やその他の風景が、図6に示した消失点FOCへと向かって移動しながら小さくなって行く。図6に示すオプティックフローは、自車両の走行に依存していて静止している背景全体の移動パターンを表しているので、特にグローバルフローと呼ばれている。背景Bに対しては、図6に示すグローバルフローパターンに基づいてぼかし処理を施す。 For the image of background B, which is the background above the horizon, the blurring process is performed in the following procedure. In the image of background B, the building and other landscapes become smaller while moving toward the vanishing point FOC shown in FIG. 6 as the vehicle travels. The optic flow shown in FIG. 6 is particularly called a global flow because it represents a movement pattern of the entire stationary background that depends on the traveling of the host vehicle. Background B is subjected to blurring processing based on the global flow pattern shown in FIG.
映像処理部2のメモリ(RAMやROM)には走行パターンに応じた複数のグローバルフローパターンが予め記憶されており、現在の車両走行状態の車両情報に基づいていずれかのグローバルフローパターンを選択して用いる。図9に示すグローバルフローパターンは直進走行の場合のパターンであり、この他に、カーブ走行時(右カーブ、左カーブ)などのパターンがある。車両情報としては、車速、操舵角、加速度センサからの横Gなどがある。また、ナビゲーション装置が作動している場合には、ナビゲーションの地図情報から道路のカーブ状態を推測してグローバルフローパターンを選択しても良い。
In the memory (RAM or ROM) of the
グローバルフローパターンを選択したならば、検出されたオプティックフローに基づいてグローバルフローパターンを補正して現状に合わせ込み、その補正されたグローバルフローパターンを用いてぼかし処理を行う。なお、グローバルフローパターンの補正については、カメラ向きや車体姿勢に応じても行われる。このときのぼかしの方向は、グローバルフローパターンのフロー方向に行われる。また、ぼかし量に関しては、消失点FOCから遠ざかる程ぼかし量を大きくする。すなわち、図9に示すような同心円状のぼかしパターンに基づいてぼかし量を設定する。パターン内の数字はぼかし量の程度を表している。なお、自車両の速度に応じてぼかしパターンのぼかし量の大きさを変えるようにしても良く、例えば、車速が大きい場合には、数字1,2,3,4を、2,3,4,5のように大きくする。
If the global flow pattern is selected, the global flow pattern is corrected based on the detected optical flow to match the current state, and blurring processing is performed using the corrected global flow pattern. The correction of the global flow pattern is also performed according to the camera orientation and the vehicle body posture. The direction of blurring at this time is performed in the flow direction of the global flow pattern. As for the blur amount, the blur amount is increased as the distance from the vanishing point FOC increases. That is, the blur amount is set based on a concentric blur pattern as shown in FIG. The numbers in the pattern represent the degree of blurring. The blur amount of the blur pattern may be changed in accordance with the speed of the host vehicle. For example, when the vehicle speed is high, the
このようにして全ての分割領域に対して画像処理を施したならば、上述したようにそれらを表示データとして統合し、モニタ3へと出力する。図10は、統合された映像を示す図である。適度なぼかし処理を施したことにより、注すべき対象としての対象物11および13(図7参照)が目立っているのが一目でわかる。また、周囲背景や対象物13の近くの停車車両(対象物12)等がぼけているため、不要な情報量が少なくなり見やすい映像となっている。なお、自車両が停止している場合には、撮影画像に対する上述したようなぼかし処理は行われず、撮影画像がそのまま表示される。
When image processing has been performed on all the divided areas in this way, they are integrated as display data as described above and output to the
上述したように、本実施の形態の車両用監視装置は、以下のような作用効果を奏することができる。
(1)撮像画像をフレーム単位で取得し、分割手段2で、フレーム間の変化に基づいて画像領域を移動体を含む分割画像領域11〜13と背景を含む分割画像領域A,Bとに分割し、分割された分割画像領域の内の、遠ざかる移動体を含む分割画像領域12と背景を含む分割画像領域Bとに画像処理手段によりぼかし処理を施すようにしたので、情報量が低減され視認性の高い表示画像を得ることができる。
(2)なお、同一フレーム内において、ぼかしの対象となる画素とその周辺の画素とを平均化処理することによりぼかし処理を施すことで、映像の遅延時間を最小限に抑えつつ、認識しやすい映像を得ることができる。
(3)また、遠ざかる移動体および背景との相対速度が大きいほどぼかしの程度を大きくしたり、遠ざかる移動体および背景との距離に応じてぼかしの程度を変えたりすることで、移動体の状況や車両走行状況に応じて変化する観察者の感覚に即した自然な映像を実現できる。さらに、自車両の速度が大きいほどぼかしの程度を大きくすることで、例えば、駐車車両や道端の看板などの映像の煩わしさを低減できる。
(4)オプティックフローに基づいて、移動体を含む分割画像領域と背景を含む分割画像領域とに分割することで、適切な分割処理をより簡単に行うことができるとともに、背景へのぼかし処理も簡単になる。
(5)なお、ぼかしの対象となる画素とその周辺のオプティックフローの方向にある画素とを平均化処理して、オプティックフローの方向にぼかし処理を行ったり、オプティックフローの消失点から遠ざかるほどぼかしの程度を大きくしたりすることで、少ない計算量で車両の移動によって発生する自然なぼけ具合を実現することができ、視認性が高く違和感の少ない映像が得られる。
As described above, the vehicle monitoring apparatus according to the present embodiment can provide the following operational effects.
(1) A captured image is acquired in units of frames, and the
(2) In the same frame, it is easy to recognize the image while minimizing the delay time of the video by performing the blurring process by averaging the pixel to be blurred and the surrounding pixels. You can get a picture.
(3) In addition, the degree of blur is increased as the relative speed between the moving object and the background moving away is increased, or the degree of blur is changed according to the distance from the moving object and the background moving away. It is possible to realize a natural image that matches the observer's feeling that changes according to the vehicle driving situation. Furthermore, by increasing the degree of blur as the speed of the host vehicle increases, it is possible to reduce the annoyance of images such as parked vehicles and roadside signs.
(4) Based on the optic flow, by dividing into a divided image area including a moving object and a divided image area including a background, appropriate division processing can be performed more easily, and background blur processing is also possible. It will be easy.
(5) Note that the pixel to be blurred and the surrounding pixels in the direction of the optic flow are averaged, and the blur processing is performed in the direction of the optic flow, or the blur is performed as the distance from the vanishing point of the optic flow increases. By increasing the degree of the above, it is possible to realize natural blurring caused by movement of the vehicle with a small amount of calculation, and an image with high visibility and less discomfort can be obtained.
1:カメラ、2:映像処理部、3:モニタ、10:移動体、20:建物、21:電柱、22:白線、OF1〜OF5:オプティックフロー、FOC:消失点 1: Camera, 2: Video processing unit, 3: Monitor, 10: Mobile, 20: Building, 21: Utility pole, 22: White line, OF1 to OF5: Optic flow, FOC: Vanishing point
Claims (10)
前記撮像装置により撮像されたフレーム画像を入力し、前記フレーム画像を、監視すべき対象の候補である対象物を含む対象画像領域と、前記フレーム画像から前記対象画像領域を除いた背景画像領域とに分割する分割手段と、
前記分割手段で分割された前記対象画像領域のうち、各対象画像領域に含まれている対象物と自車両との間の距離および相対速度に基づいて自車両に接近していないと判定された対象物、ならびに、前記背景画像領域のうち地平線の上側にある背景にぼかし処理を施す画像処理手段とを備えたことを特徴とする車両用監視装置。 In the vehicle monitoring device that displays a captured image of the rear of the vehicle imaged by the imaging device on a display device,
A frame image captured by the imaging device is input, and the frame image includes a target image region including a target object that is a candidate for monitoring, and a background image region obtained by removing the target image region from the frame image. Dividing means to divide into
Of the target image areas divided by the dividing means, it is determined that the vehicle is not approaching based on the distance and relative speed between the target object included in each target image area and the host vehicle. A vehicle monitoring apparatus comprising: an object; and image processing means for performing a blurring process on a background above the horizon in the background image region .
前記画像処理手段は、同一フレーム内において、ぼかしの対象となる画素とその周辺の画素とを平均化処理することにより前記ぼかし処理を施すことを特徴とする車両用監視装置。 The vehicle monitoring device according to claim 1,
The vehicular monitoring device, wherein the image processing means performs the blurring process by averaging a pixel to be blurred and surrounding pixels in the same frame.
前記画像処理手段は、前記対象物のうち自車両から遠ざかる対象物および前記背景画像領域のうち地平線の上側にある背景について、自車両と前記移動体および前記背景との相対速度が大きいほどぼかしの程度を大きくすることを特徴とする車両用監視装置。 The vehicle monitoring device according to claim 1 or 2,
Wherein the image processing means, the background in the upper horizon of the object and the background image area away from the vehicle among the objects, blurring as the relative speed between the moving object and the background and the subject vehicle is large A vehicle monitoring device characterized by increasing the degree.
前記画像処理手段は、地平線の上側にあるフレーム画像のうち自車両の後方にある対象物を除く背景について、消失点から遠ざかる位置にある画像ほど、ぼかしの程度を大きくすることを特徴とする車両用監視装置。 In the monitoring device for vehicles according to any one of claims 1 to 3,
The vehicle, wherein the image processing means increases the degree of blurring of an image located farther from the vanishing point with respect to the background excluding the object behind the host vehicle in the frame image above the horizon. Monitoring device.
前記画像処理手段は、自車両の速度が大きいほどぼかしの程度を大きくし、自車両が停止している場合はぼかし処理を停止することを特徴とする車両用監視装置。 In the vehicle monitoring device according to any one of claims 1 to 4,
The image monitoring means increases the degree of blurring as the speed of the host vehicle increases, and stops the blurring process when the host vehicle is stopped.
前記撮像画像に基づくオプティックフローを算出する演算手段を備え、
前記分割手段は、前記オプティックフローに基づいて、監視すべき対象の候補である対象物を含む対象画像領域と、前記フレーム画像から前記対象画像領域を除いた背景画像領域とに分割することを特徴とする車両用監視装置。 In the monitoring apparatus for vehicles as described in any one of Claims 1-5,
Computation means for calculating an optic flow based on the captured image,
The dividing means divides into a target image area including a target object that is a candidate of a target to be monitored and a background image area obtained by removing the target image area from the frame image based on the optic flow. A vehicle monitoring device.
前記画像処理手段は、ぼかしの対象となる画素とその周辺の前記オプティックフローの方向にある画素とを平均化処理し、前記オプティックフローの方向にぼかし処理を行うことを特徴とする車両用監視装置。 The vehicle monitoring device according to claim 6,
The vehicular monitoring device, wherein the image processing means averages a pixel to be blurred and a peripheral pixel in the direction of the optic flow, and performs the blur processing in the direction of the optic flow .
前記画像処理手段は、前記オプティックフローの消失点から遠ざかるほどぼかしの程度を大きくすることを特徴とする車両用監視装置。 The vehicle monitoring device according to claim 6 or 7,
The vehicular monitoring device, wherein the image processing means increases the degree of blur as the distance from the vanishing point of the optic flow increases.
前記画像処理手段は、地平線の下側にあるフレーム画像のうち自車両の後方にある対象物を除く背景について、自車両の後方に移動しながら周期的に変化する画像に対してぼかし処理を施し、その他の画像については、ぼかし処理を施さないことを特徴とする車両用監視装置。 In the vehicle monitoring device according to any one of claims 1 to 8,
The image processing means performs a blurring process on an image that periodically changes while moving to the rear of the host vehicle with respect to a background excluding an object behind the host vehicle in the frame image below the horizon. The vehicle monitoring apparatus is characterized in that no blurring process is applied to other images.
前記画像処理手段は、自車両の後方に移動しながら周期的に変化する画像として、道路面上の白線およびトンネル内の照明を、その延在方向に沿ってぼかすことを特徴とする車両用監視装置。
The vehicle monitoring device according to claim 9, wherein
The image processing means blurs the white line on the road surface and the illumination in the tunnel along the extending direction as an image that periodically changes while moving to the rear of the host vehicle. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006198307A JP4882571B2 (en) | 2006-07-20 | 2006-07-20 | Vehicle monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006198307A JP4882571B2 (en) | 2006-07-20 | 2006-07-20 | Vehicle monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008027138A JP2008027138A (en) | 2008-02-07 |
JP4882571B2 true JP4882571B2 (en) | 2012-02-22 |
Family
ID=39117711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006198307A Expired - Fee Related JP4882571B2 (en) | 2006-07-20 | 2006-07-20 | Vehicle monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4882571B2 (en) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4935302B2 (en) * | 2006-11-02 | 2012-05-23 | 株式会社ニコン | Electronic camera and program |
GB2447672B (en) | 2007-03-21 | 2011-12-14 | Ford Global Tech Llc | Vehicle manoeuvring aids |
US9513103B2 (en) | 2011-04-19 | 2016-12-06 | Ford Global Technologies, Llc | Hitch angle sensor assembly |
US9937953B2 (en) | 2011-04-19 | 2018-04-10 | Ford Global Technologies, Llc | Trailer backup offset determination |
US9723274B2 (en) | 2011-04-19 | 2017-08-01 | Ford Global Technologies, Llc | System and method for adjusting an image capture setting |
US9683848B2 (en) | 2011-04-19 | 2017-06-20 | Ford Global Technologies, Llc | System for determining hitch angle |
US9290202B2 (en) | 2011-04-19 | 2016-03-22 | Ford Global Technologies, Llc | System and method of calibrating a trailer backup assist system |
US9854209B2 (en) | 2011-04-19 | 2017-12-26 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
US10196088B2 (en) | 2011-04-19 | 2019-02-05 | Ford Global Technologies, Llc | Target monitoring system and method |
US9374562B2 (en) | 2011-04-19 | 2016-06-21 | Ford Global Technologies, Llc | System and method for calculating a horizontal camera to target distance |
US9290204B2 (en) | 2011-04-19 | 2016-03-22 | Ford Global Technologies, Llc | Hitch angle monitoring system and method |
US9969428B2 (en) | 2011-04-19 | 2018-05-15 | Ford Global Technologies, Llc | Trailer backup assist system with waypoint selection |
US9506774B2 (en) | 2011-04-19 | 2016-11-29 | Ford Global Technologies, Llc | Method of inputting a path for a vehicle and trailer |
US9335163B2 (en) | 2011-04-19 | 2016-05-10 | Ford Global Technologies, Llc | Trailer length estimation in hitch angle applications |
US9434414B2 (en) | 2011-04-19 | 2016-09-06 | Ford Global Technologies, Llc | System and method for determining a hitch angle offset |
US9500497B2 (en) | 2011-04-19 | 2016-11-22 | Ford Global Technologies, Llc | System and method of inputting an intended backing path |
US9555832B2 (en) | 2011-04-19 | 2017-01-31 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
US9926008B2 (en) | 2011-04-19 | 2018-03-27 | Ford Global Technologies, Llc | Trailer backup assist system with waypoint selection |
JP2012247847A (en) * | 2011-05-25 | 2012-12-13 | Denso Corp | Information transmission control device for vehicle and information transmission control device |
US9592851B2 (en) | 2013-02-04 | 2017-03-14 | Ford Global Technologies, Llc | Control modes for a trailer backup assist system |
US9511799B2 (en) | 2013-02-04 | 2016-12-06 | Ford Global Technologies, Llc | Object avoidance for a trailer backup assist system |
CN104885448B (en) * | 2013-02-21 | 2018-04-06 | 本田技研工业株式会社 | Drive assistance device and image processing program |
JP5920528B2 (en) * | 2013-03-28 | 2016-05-18 | 日産自動車株式会社 | Parking assistance device |
JP6205923B2 (en) | 2013-07-11 | 2017-10-04 | 株式会社デンソー | Driving support device |
JP6323018B2 (en) * | 2014-01-17 | 2018-05-16 | 株式会社デンソー | Driving assistance device |
WO2015162910A1 (en) * | 2014-04-24 | 2015-10-29 | パナソニックIpマネジメント株式会社 | Vehicle-mounted display device, method for controlling vehicle-mounted display device, and program |
US9963004B2 (en) | 2014-07-28 | 2018-05-08 | Ford Global Technologies, Llc | Trailer sway warning system and method |
US9517668B2 (en) | 2014-07-28 | 2016-12-13 | Ford Global Technologies, Llc | Hitch angle warning system and method |
US9315212B1 (en) | 2014-10-13 | 2016-04-19 | Ford Global Technologies, Llc | Trailer sensor module and associated method of wireless trailer identification and motion estimation |
US9340228B2 (en) | 2014-10-13 | 2016-05-17 | Ford Global Technologies, Llc | Trailer motion and parameter estimation system |
US9533683B2 (en) | 2014-12-05 | 2017-01-03 | Ford Global Technologies, Llc | Sensor failure mitigation system and mode management |
US9522677B2 (en) | 2014-12-05 | 2016-12-20 | Ford Global Technologies, Llc | Mitigation of input device failure and mode management |
US9607242B2 (en) | 2015-01-16 | 2017-03-28 | Ford Global Technologies, Llc | Target monitoring system with lens cleaning device |
US9522699B2 (en) | 2015-02-05 | 2016-12-20 | Ford Global Technologies, Llc | Trailer backup assist system with adaptive steering angle limits |
US9616923B2 (en) | 2015-03-03 | 2017-04-11 | Ford Global Technologies, Llc | Topographical integration for trailer backup assist system |
US9804022B2 (en) | 2015-03-24 | 2017-10-31 | Ford Global Technologies, Llc | System and method for hitch angle detection |
WO2016151978A1 (en) * | 2015-03-26 | 2016-09-29 | パナソニックIpマネジメント株式会社 | Image processing device, driving assistance system, and image processing method |
JP2017028349A (en) * | 2015-07-15 | 2017-02-02 | 株式会社デンソー | Video processing device, operation support display system and video processing method |
US9896130B2 (en) | 2015-09-11 | 2018-02-20 | Ford Global Technologies, Llc | Guidance system for a vehicle reversing a trailer along an intended backing path |
US10384607B2 (en) | 2015-10-19 | 2019-08-20 | Ford Global Technologies, Llc | Trailer backup assist system with hitch angle offset estimation |
US10611407B2 (en) | 2015-10-19 | 2020-04-07 | Ford Global Technologies, Llc | Speed control for motor vehicles |
US9836060B2 (en) | 2015-10-28 | 2017-12-05 | Ford Global Technologies, Llc | Trailer backup assist system with target management |
US10017115B2 (en) | 2015-11-11 | 2018-07-10 | Ford Global Technologies, Llc | Trailer monitoring system and method |
US10011228B2 (en) | 2015-12-17 | 2018-07-03 | Ford Global Technologies, Llc | Hitch angle detection for trailer backup assist system using multiple imaging devices |
US9796228B2 (en) | 2015-12-17 | 2017-10-24 | Ford Global Technologies, Llc | Hitch angle detection for trailer backup assist system |
US9610975B1 (en) | 2015-12-17 | 2017-04-04 | Ford Global Technologies, Llc | Hitch angle detection for trailer backup assist system |
US9798953B2 (en) | 2015-12-17 | 2017-10-24 | Ford Global Technologies, Llc | Template matching solution for locating trailer hitch point |
US9934572B2 (en) | 2015-12-17 | 2018-04-03 | Ford Global Technologies, Llc | Drawbar scan solution for locating trailer hitch point |
US10155478B2 (en) | 2015-12-17 | 2018-12-18 | Ford Global Technologies, Llc | Centerline method for trailer hitch angle detection |
US9827818B2 (en) | 2015-12-17 | 2017-11-28 | Ford Global Technologies, Llc | Multi-stage solution for trailer hitch angle initialization |
US10005492B2 (en) | 2016-02-18 | 2018-06-26 | Ford Global Technologies, Llc | Trailer length and hitch angle bias estimation |
US10112646B2 (en) | 2016-05-05 | 2018-10-30 | Ford Global Technologies, Llc | Turn recovery human machine interface for trailer backup assist |
US10106193B2 (en) | 2016-07-01 | 2018-10-23 | Ford Global Technologies, Llc | Enhanced yaw rate trailer angle detection initialization |
US10046800B2 (en) | 2016-08-10 | 2018-08-14 | Ford Global Technologies, Llc | Trailer wheel targetless trailer angle detection |
US10222804B2 (en) | 2016-10-21 | 2019-03-05 | Ford Global Technologies, Llc | Inertial reference for TBA speed limiting |
JP6583319B2 (en) * | 2017-03-14 | 2019-10-02 | トヨタ自動車株式会社 | Image recording system, image recording method, and image recording program |
US10710585B2 (en) | 2017-09-01 | 2020-07-14 | Ford Global Technologies, Llc | Trailer backup assist system with predictive hitch angle functionality |
JP2019125894A (en) * | 2018-01-16 | 2019-07-25 | クラリオン株式会社 | On-vehicle image processing device |
US11077795B2 (en) | 2018-11-26 | 2021-08-03 | Ford Global Technologies, Llc | Trailer angle detection using end-to-end learning |
US10829046B2 (en) | 2019-03-06 | 2020-11-10 | Ford Global Technologies, Llc | Trailer angle detection using end-to-end learning |
JP7331731B2 (en) | 2020-02-21 | 2023-08-23 | トヨタ自動車株式会社 | Vehicle electronic mirror system |
JP7521268B2 (en) * | 2020-06-08 | 2024-07-24 | スズキ株式会社 | Vehicle image processing device |
JP7636113B2 (en) * | 2021-04-13 | 2025-02-26 | アルプスアルパイン株式会社 | Video Display System |
JP2024013068A (en) * | 2022-07-19 | 2024-01-31 | オムロン株式会社 | Object detection device, object detection method, and object detection program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3298851B2 (en) * | 1999-08-18 | 2002-07-08 | 松下電器産業株式会社 | Multi-function vehicle camera system and image display method of multi-function vehicle camera |
JP3941926B2 (en) * | 2002-03-12 | 2007-07-11 | 松下電器産業株式会社 | Vehicle periphery monitoring device |
JP3776094B2 (en) * | 2002-05-09 | 2006-05-17 | 松下電器産業株式会社 | Monitoring device, monitoring method and monitoring program |
JP3897305B2 (en) * | 2004-02-06 | 2007-03-22 | シャープ株式会社 | Vehicle periphery monitoring device, vehicle periphery monitoring method, control program, and readable recording medium |
JP2005346177A (en) * | 2004-05-31 | 2005-12-15 | Nissan Motor Co Ltd | Information presenting device for vehicle |
-
2006
- 2006-07-20 JP JP2006198307A patent/JP4882571B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008027138A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4882571B2 (en) | Vehicle monitoring device | |
JP4970516B2 (en) | Surrounding confirmation support device | |
JP5450900B2 (en) | Driving assistance device | |
JP4248558B2 (en) | Road marking line detection device | |
US9898671B2 (en) | Vehicle vision system with structure and motion estimation | |
WO2011108198A1 (en) | Surrounding area monitoring device for vehicle | |
KR101093316B1 (en) | Image Matching Method and System for Driving a Vehicle | |
US11263758B2 (en) | Image processing method and apparatus | |
JP4775123B2 (en) | Vehicle monitoring device | |
JP6338930B2 (en) | Vehicle surrounding display device | |
JP2018071994A (en) | Attached matter detection apparatus and attached matter detection method | |
JP2016206881A (en) | Lane detection apparatus and method, and lane display apparatus and method | |
CN113508574A (en) | Imaging system and method | |
WO2015129280A1 (en) | Image processing device and image processing method | |
WO2019156072A1 (en) | Attitude estimating device | |
JP2014106740A (en) | In-vehicle parking frame recognizing device | |
JP4755501B2 (en) | Lane detection device and lane departure warning device | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP7196781B2 (en) | Information processing device and driving support system | |
JP2008238927A (en) | Display device of vehicle peripheral image | |
JP5004923B2 (en) | Vehicle driving support device | |
JP6032141B2 (en) | Travel road marking detection device and travel road marking detection method | |
JP6941949B2 (en) | Vehicle image display device | |
JP2001084497A (en) | Position detection device | |
KR101815840B1 (en) | Around view monitoring apparatus based on video estimation process |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111108 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141216 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |