[go: up one dir, main page]

JP2006178667A - Video correcting apparatus and method for vehicle - Google Patents

Video correcting apparatus and method for vehicle Download PDF

Info

Publication number
JP2006178667A
JP2006178667A JP2004370027A JP2004370027A JP2006178667A JP 2006178667 A JP2006178667 A JP 2006178667A JP 2004370027 A JP2004370027 A JP 2004370027A JP 2004370027 A JP2004370027 A JP 2004370027A JP 2006178667 A JP2006178667 A JP 2006178667A
Authority
JP
Japan
Prior art keywords
image
vehicle
video
specific position
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004370027A
Other languages
Japanese (ja)
Inventor
Hiroyoshi Yanagi
柳  拓良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004370027A priority Critical patent/JP2006178667A/en
Publication of JP2006178667A publication Critical patent/JP2006178667A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To intuitively grasp positional relation between a user's vehicle and a peripheral object when the periphery of the vehicle is imaged by a camera mounted on the vehicle. <P>SOLUTION: A video correcting apparatus for a vehicle is provided with an imaging part 1 for imaging the video around the vehicle, an image processing part 2 for inputting the video imaged by the imaging part 1 and executing image correction processing for the video, and a display part 3 for inputting the video image correction processing of which is carried out by the image processing part 2 and displaying the video. In the video correcting apparatus for the vehicle, the image processing part 2 sets a specific position which is a reference for image correction processing in the video imaged by the imaging part 1 and shifts the video part of a horizontal direction in the vertical direction with respect to the specific position to linearly correct distortion in the video in the width direction of the vehicle. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両周囲の映像を撮像して、当該映像に対して補正処理を施して運転者に提示する車両用映像補正装置及び車両用映像補正方法に関する。   The present invention relates to a vehicular video correction apparatus and a vehicular video correction method for capturing a video around a vehicle, performing correction processing on the video, and presenting the video to a driver.

従来より、車両周囲を撮像して運転者に提示する技術としては、カメラとモニタにより構成される車両後方監視システムが広く知られている。この車両後方監視システムでは、カメラの搭載位置や、画角が車両の左右方向における中心位置からずれている場合には、当該カメラで撮像してモニタに表示させても、運転者にとっては映像では車両の進行方向を把握しにくいという欠点がある。   2. Description of the Related Art Conventionally, a vehicle rear monitoring system including a camera and a monitor is widely known as a technique for imaging a vehicle periphery and presenting it to a driver. In this vehicle rear monitoring system, when the camera mounting position and the angle of view are deviated from the center position in the left-right direction of the vehicle, even if the image is captured by the camera and displayed on the monitor, the image is not displayed for the driver. There is a drawback that it is difficult to grasp the traveling direction of the vehicle.

これに対し、従来では、カメラによって撮像した画像を画像処理によって補正する技術として、下記の特許文献1に記載された技術が知られている。この特許文献1に記載に記載された技術は、カメラによって撮像した映像をピクセルの行に分割し、各行を所定のピクセル数だけ左右にずらした映像を生成する画像処理を行うことによって、運転者に車両周囲が把握しやすい映像に変換させている。
特開2002−374523号公報
On the other hand, conventionally, a technique described in Patent Document 1 below is known as a technique for correcting an image captured by a camera by image processing. The technique described in Patent Literature 1 divides an image captured by a camera into pixel rows, and performs image processing to generate an image in which each row is shifted to the left and right by a predetermined number of pixels. It is converted into an image that makes it easy to grasp the surroundings of the vehicle.
JP 2002-374523 A

ところで、近年において、自車周辺を撮像するカメラと、当該カメラにより撮像した映像を運転者に表示するモニタから構成され、運転者の直接視では見れない死角情報や、車両の操舵角に応じて決定した予想進行軌跡と障害物位置との位置関係を運転者に提示することにより、運転を支援する装置が普及し始めている。   By the way, in recent years, it is composed of a camera that captures the surroundings of the host vehicle and a monitor that displays images captured by the camera to the driver, depending on the blind spot information that cannot be seen directly by the driver and the steering angle of the vehicle. Devices that support driving are beginning to be widely used by presenting the positional relationship between the determined predicted trajectory and the position of an obstacle to the driver.

このような運転支援装置では、広い視野の映像を表示するために、広角カメラを使用することが多いが、当該広角カメラを使用すると、映像の周辺部における歪曲が大きくなってしまう。具体的には、例えば車両に広角カメラを取り付けた場合には、自車両のバンパーがU字型に変形するという歪曲が起こってしまい、当該映像では、運転者にとって車両周囲を直感的に把握することが困難であるという問題点があった。   In such a driving assistance device, a wide-angle camera is often used to display a wide-field image. However, when the wide-angle camera is used, distortion in the peripheral portion of the image becomes large. Specifically, for example, when a wide-angle camera is attached to the vehicle, a distortion occurs in which the bumper of the own vehicle is deformed into a U shape, and the driver intuitively grasps the surroundings of the vehicle in the video. There was a problem that it was difficult.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、車両に取り付けたカメラで車両周囲を撮像した場合に、自車両と周囲物体との位置関係を直感的に把握させることができる車両用映像補正装置及び車両用映像補正方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described situation, and when the surroundings of a vehicle are imaged with a camera attached to the vehicle, it is possible to intuitively grasp the positional relationship between the host vehicle and surrounding objects. An object of the present invention is to provide a vehicle image correction device and a vehicle image correction method.

本発明は、車両の周辺の映像を撮像する撮像手段と、前記撮像手段で撮像した映像を入力して、当該映像に対して画像補正処理を行う画像処理手段と、前記画像処理手段で画像補正処理が行われた映像を入力し、当該映像を表示する表示手段とを備える。   The present invention relates to an image pickup means for picking up an image around a vehicle, an image processing means for inputting an image picked up by the image pickup means and performing an image correction process on the image, and an image correction by the image processing means. Display means for inputting the processed video and displaying the video.

このような本発明は、前記画像処理手段により、前記撮像手段で撮像された映像内に画像補正処理の基準となる特定位置を設定し、当該特定位置に対して左右方向の映像部分を上下方向にシフトさせて、前記車両の幅方向における映像内の歪曲を直線状に補正することにより、上述の課題を解決する。   In the present invention, the image processing unit sets a specific position serving as a reference for the image correction process in the image captured by the image capturing unit, and the horizontal video portion is vertically aligned with respect to the specific position. And the above-mentioned problem is solved by correcting the distortion in the image in the width direction of the vehicle to a straight line.

本発明によれば、車両周囲を撮像した場合に映像内に歪曲があったとしても、特定位置に対して左右方向の映像部分を上下方向にシフトさせることができるので、車両の幅方向における映像内の歪曲を直線状に補正することができ、自車両と周囲物体との位置関係を直感的に把握させることができる。   According to the present invention, even if there is distortion in the image when the periphery of the vehicle is imaged, the image portion in the left-right direction can be shifted in the up-down direction with respect to the specific position. It is possible to correct the internal distortion in a straight line, and to intuitively grasp the positional relationship between the host vehicle and surrounding objects.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[車両周囲監視システムの構成]
本発明は、例えば図1に示すように構成された車両周囲監視システムに適用される。
[Configuration of vehicle surroundings monitoring system]
The present invention is applied to, for example, a vehicle surrounding monitoring system configured as shown in FIG.

この車両周囲監視システムは、車両周辺の映像を撮像して映像データを出力する撮像部1と、撮像部1で撮像した映像データを入力とし、当該映像データに対して画像補正処理を行う画像処理部2と、画像処理部2により画像補正処理が施された映像データを表示する表示部3とを備える。   This vehicle surroundings monitoring system receives an image of a vehicle surroundings and outputs image data, and image processing that performs image correction processing on the image data. Unit 2 and a display unit 3 for displaying video data on which image correction processing has been performed by the image processing unit 2.

このような車両周囲監視システムは、画像処理部2により、本来であれば車両の左右方向に並行な概直線を撮像した映像の歪曲を緩和して、映像内の特定位置における左右方向の映像が歪みがなくなるように補正して表示させる画像処理を行うものである。ここで、映像内の特定位置としては、例えば、運転者の注目位置であって、当該注目位置での歪みを緩和する画像処理が画像処理部2によって行われる。   In such a vehicle surrounding monitoring system, the image processing unit 2 alleviates distortion of an image obtained by capturing an approximate straight line parallel to the left and right direction of the vehicle, so that the image in the left and right direction at a specific position in the image can be obtained. Image processing for correcting and displaying so as to eliminate distortion is performed. Here, the specific position in the video is, for example, a driver's attention position, and the image processing unit 2 performs image processing for reducing distortion at the attention position.

撮像部1は、CCD(Charge Coupled Device)カメラ等で構成され、輝度情報及び色情報を含む映像データを生成して、画像処理部2に出力する。なお、撮像部1としては、CCDカメラに限らず、夜間において使用される赤外線カメラ等であっても良い。この撮像部1は、図2(a)に示すように自車両10後方を撮像方向として搭載されたり、図2(b)に示すように、自車両10前方を撮像方向として搭載される。また、この撮像部1は、できる限り自車両周囲の広範囲を撮像範囲とするために光学部品が選択された広角カメラとなっている。   The imaging unit 1 includes a CCD (Charge Coupled Device) camera or the like, generates video data including luminance information and color information, and outputs the video data to the image processing unit 2. The imaging unit 1 is not limited to a CCD camera, but may be an infrared camera used at night. The imaging unit 1 is mounted with the rear side of the host vehicle 10 as the imaging direction as shown in FIG. 2A, or is mounted with the front side of the host vehicle 10 as the imaging direction, as shown in FIG. 2B. In addition, the imaging unit 1 is a wide-angle camera in which optical components are selected in order to make the imaging range as wide as possible around the host vehicle.

画像処理部2は、図2(a)及び図2(b)に示すように、車両速度センサや操舵角センサ等のセンサ11と、車両後方や車両前方の障害物を検知するレーザレーダ装置等のセンサ12とが接続されている。画像処理部2は、センサ11,12からのセンサ情報を入力し、当該センサ情報に応じた画像補正処理を行う。   As shown in FIGS. 2A and 2B, the image processing unit 2 includes a sensor 11 such as a vehicle speed sensor or a steering angle sensor, a laser radar device that detects an obstacle behind the vehicle or in front of the vehicle, or the like. The sensor 12 is connected. The image processing unit 2 inputs sensor information from the sensors 11 and 12 and performs image correction processing according to the sensor information.

表示部3は、運転者から視認可能な位置に設けられた液晶ディスプレイ等からなり、画像処理部2で画像補正処理が施された映像データが供給される。なお、車両周囲監視システムは、表示部3周辺に自車両周囲の映像を表示させることを指示する操作機構を備え、当該操作機構が操作されたことに応じて、撮像部1によって生成した映像データを画像処理部2によって画像補正処理を施して、表示部3に表示させる。   The display unit 3 is composed of a liquid crystal display or the like provided at a position visible to the driver, and is supplied with video data that has been subjected to image correction processing by the image processing unit 2. The vehicle surrounding monitoring system includes an operation mechanism that instructs to display an image of the surroundings of the host vehicle around the display unit 3, and the video data generated by the imaging unit 1 in response to the operation of the operation mechanism. Is subjected to image correction processing by the image processing unit 2 and displayed on the display unit 3.

このような車両周囲監視システムは、図2(a)に示すように自車両10の後退時に撮像部1で映像データを生成して、画像処理部2によって画像補正処理を行って表示部3で提示するものや、図2(b)に示すように自車両10の前進時に撮像部1で映像データを生成して、画像処理部2によって画像補正処理を行って表示部3で提示するものの何れであっても良い。なお、自車両10の前進時に映像を表示させる状況としては、例えば、狭い道等で前進しながら障害物を回避するときなどが挙げられる。また、車両周囲を撮像して表示させる場合としては、車両の横部をドアミラーなどに内蔵した撮像部1で撮像することなどが考えられ、この場合であっても、後述の画像補正処理を行っても良いことは勿論である。そして、以下の説明では、図2(b)に示したように、自車両10の前方を撮像部1の撮像方向とした場合について説明する。   In such a vehicle surrounding monitoring system, as shown in FIG. 2A, when the host vehicle 10 moves backward, the imaging unit 1 generates video data, the image processing unit 2 performs image correction processing, and the display unit 3 As shown in FIG. 2 (b), the image data is generated by the imaging unit 1 when the host vehicle 10 moves forward, the image correction process is performed by the image processing unit 2, and the display unit 3 presents the image data. It may be. In addition, as a situation where an image is displayed when the host vehicle 10 moves forward, for example, when an obstacle is avoided while moving forward on a narrow road or the like. Moreover, as a case where the periphery of the vehicle is imaged and displayed, it is conceivable that the lateral part of the vehicle is imaged by the imaging unit 1 incorporated in a door mirror or the like. Even in this case, an image correction process described later is performed. Of course, it may be. In the following description, as shown in FIG. 2B, a case where the front of the host vehicle 10 is set as the imaging direction of the imaging unit 1 will be described.

このように構成された車両周囲監視システムにおいて、撮像部1を車両前方のグリル部のバッジの上方位置であって、やや下向きを撮像方向とした状態で搭載され、撮像部1が広角カメラで構成されている場合、撮像部1によって生成される映像データは、図3に示すようになる。この図3によれば、撮像部1による映像データには、その下方であって自車両10から手前部分にクロームメッキ処理された自車両10のバッジ及びU字型に歪曲した自車のフロントバンパー20が撮像されおり、自車両10の幅よりも約30センチメートル程度に自車両10と平行した白線21が撮像され、自車両10から30センチメートル前方の白線22、自車両10から130センチメートル前方の白線23、自車両10から230センチメートル前方の白線24等が撮像されている。   In the vehicle surrounding monitoring system configured as described above, the imaging unit 1 is mounted at a position above the badge of the grill unit at the front of the vehicle and with the imaging direction set slightly downward, and the imaging unit 1 is configured with a wide-angle camera. If it is, the video data generated by the imaging unit 1 is as shown in FIG. According to FIG. 3, the video data from the imaging unit 1 includes the badge of the host vehicle 10 that is chrome-plated from the host vehicle 10 to the front side of the host vehicle 10 and the front bumper 20 of the host vehicle that is distorted into a U-shape. The white line 21 parallel to the host vehicle 10 is imaged approximately 30 centimeters from the width of the host vehicle 10, the white line 22 30 centimeters forward from the host vehicle 10, and 130 centimeters forward from the host vehicle 10. The white line 23, the white line 24 ahead of the vehicle 10 by 230 centimeters, and the like are captured.

ここで、各白線21,22,23は、後述の画像補正処理後の映像データ(図4)と比較するために描かれ、通常、地面には白線が描かれているとは限らない。また、例えば自車両10から前方30センチメートル程度であって、図3において、一方の白線22部分に障害物が存在する場合と、他方の白線22部分に障害物が存在する場合とでは、運転者にとっては自車両10から異なる距離に存在する障害物であると把握されてしまう可能性がある。   Here, the white lines 21, 22, and 23 are drawn for comparison with video data (FIG. 4) after image correction processing, which will be described later. Usually, white lines are not always drawn on the ground. Further, for example, when the vehicle is about 30 centimeters forward from the own vehicle 10 and there is an obstacle in one white line 22 portion and in the case where an obstacle exists in the other white line 22 portion in FIG. For a person, there is a possibility that it is recognized that the obstacle exists at a different distance from the host vehicle 10.

すなわち、自車両10の幅方向における略中心位置に存在する障害物は、自車両10近くに存在する映像内位置に現れ、自車両10の幅方向における端部付近に存在する障害物は、自車両10から遠く存在する映像内位置に現れる。   That is, an obstacle present at a substantially central position in the width direction of the host vehicle 10 appears at a position in the image near the host vehicle 10, and an obstacle present near the end in the width direction of the host vehicle 10 It appears at a position in the image that exists far from the vehicle 10.

これに対し、画像処理部2は、図3に示すような映像データが入力された場合に、当該図3に示すような映像データを、図4に示すような映像データに変換する画像補正処理を行う。このとき、画像処理部2は、白線22付近を運転者の注目している特定位置とし、当該特定位置から幅方向に向かうに従って、歪み補正量を多くしている。   On the other hand, the image processing unit 2 converts the video data as shown in FIG. 3 into the video data as shown in FIG. 4 when the video data as shown in FIG. 3 is input. I do. At this time, the image processing unit 2 sets the vicinity of the white line 22 as a specific position that is noticed by the driver, and increases the distortion correction amount from the specific position toward the width direction.

すなわち、特定位置の白線22に対して左右方向に存在する白線22を映像内下方に移動させて複数の白線22を直線状にすると共に、同様に、複数の白線22を直線状にした時と同じ幅方向位置における映像も映像内下方に移動させる。これにより、例えば自車両10のフロントバンパー20の幅方向端部付近の歪みに対しても、画像補正処理を行う。   That is, when the white line 22 that exists in the left-right direction with respect to the white line 22 at a specific position is moved downward in the image to make the plurality of white lines 22 straight, and similarly, when the plurality of white lines 22 are made straight. The image at the same position in the width direction is also moved downward in the image. Thereby, for example, the image correction process is also performed for distortion near the end in the width direction of the front bumper 20 of the host vehicle 10.

この図4に示す映像データは、自車両10から約30センチメートル前方の白線22が自車両10に対して等距離の直線とされるように映像歪みが補正されている。また、画像処理部2は、自車両10のフロントバンパー20部分の映像を、自車両10の幅方向における約30センチメートル程度延長させている。このような図4の映像は、自車両10のフロントバンパー20の映像内位置と白線22との位置関係とを直感的に把握させやすくなっている。   In the video data shown in FIG. 4, the video distortion is corrected so that the white line 22 approximately 30 centimeters ahead of the host vehicle 10 is a straight line equidistant from the host vehicle 10. The image processing unit 2 extends the image of the front bumper 20 portion of the host vehicle 10 by about 30 centimeters in the width direction of the host vehicle 10. 4 makes it easy to intuitively grasp the positional relationship between the position in the image of the front bumper 20 of the host vehicle 10 and the white line 22.

「画像補正処理の具体例」
つぎに、図3に示す映像データに対して画像補正処理を行って、図4に示す映像データを生成する処理の具体例について説明する。
"Specific examples of image correction processing"
Next, a specific example of a process for performing the image correction process on the video data shown in FIG. 3 to generate the video data shown in FIG. 4 will be described.

この画像補正処理は、先ず、撮像部1から入力された映像データのピクセルデータ(画素データ)をコラムに分割し、各コラム又は各コラムを複数の区間に分割した区間毎に所定のピクセル数だけ上下方向のシフトさせる処理や、所定倍率で上下方向に拡大又は縮小させる処理を行うことにより、特定位置(領域)における左右方向の映像が略直線になるように再構成させる。   In this image correction process, first, pixel data (pixel data) of video data input from the imaging unit 1 is divided into columns, and each column or each column is divided into a plurality of sections, and a predetermined number of pixels is obtained. By performing a process of shifting in the vertical direction and a process of expanding or reducing in the vertical direction at a predetermined magnification, the image in the horizontal direction at the specific position (region) is reconfigured so as to be a substantially straight line.

この画像補正処理は、画像処理部2により、図5(a)に示すような映像データを画像処理部2で入力する。これに応じ、画像処理部2は、図5(a)の映像データを、図5(b)に示すように、映像データを格子状に並んだコラムの集合として変換して、ラスタ画像を作成して、図示しないバッファに記憶しておく。ここで、ラスタ画像を構成する各映像領域は、単ピクセルであっても良く、複数のピクセルを組み合わせたものであっても良い。なお、本例では、640×480ピクセルの映像が撮像部1から画像処理部2に入力され、図5(b)に示すように、複数ピクセルで単一の格子を構成している。   In this image correction processing, the image processing unit 2 inputs video data as shown in FIG. In response to this, the image processing unit 2 converts the video data shown in FIG. 5A into a set of columns arranged in a grid as shown in FIG. 5B, thereby creating a raster image. Then, it is stored in a buffer (not shown). Here, each video area constituting the raster image may be a single pixel or a combination of a plurality of pixels. In this example, an image of 640 × 480 pixels is input from the imaging unit 1 to the image processing unit 2, and a single grid is formed by a plurality of pixels as shown in FIG. 5B.

次に画像処理部2は、同一のX軸座標を有し、映像内縦方向に並んだコラムごとに、上下方向にシフトさせる。具体的には、図5(b)に示すラスタ画像内の運転者の着目位置を特定位置(領域)とし、当該特定位置における白線22の特徴量(例えばエッジ情報)と同じ特徴量を有する白線22の特徴量(例えばエッジ情報)とを幅方向における同一のX座標値までシフトさせる。このシフト量は、例えば演算式から計算しても、テーブルから読み出しても良い。   Next, the image processing unit 2 shifts in the vertical direction for each column having the same X-axis coordinate and arranged in the vertical direction in the video. More specifically, the driver's position of interest in the raster image shown in FIG. 5B is a specific position (region), and a white line having the same characteristic amount as the characteristic amount (for example, edge information) of the white line 22 at the specific position. The 22 feature values (for example, edge information) are shifted to the same X coordinate value in the width direction. This shift amount may be calculated from, for example, an arithmetic expression or read from a table.

なお、図5においては、640×480ピクセルの映像をバッファに記憶しておき、各縦コラムのシフト量を、映像内最左の縦コラムを0番目としたとき、画像内最左からn番目の縦コラムを、下記の式1に示すように、
((n−320)/320)*(120−V) (式1)
なる演算式で算出されるピクセル(領域)だけ下方向にシフトしている。ここで、式1中のVは自車両10の速度である。このとき、シフトする距離をシフトと同時に拡大縮小を行ったり、例えば映像中央で行を上下に分割し、それぞれの分割区間を異なる倍率で拡大縮小を行ってもよい。
In FIG. 5, when a video of 640 × 480 pixels is stored in the buffer and the shift amount of each vertical column is 0th in the leftmost vertical column in the video, the nth from the leftmost in the image. As shown in Equation 1 below,
((N−320) / 320) 2 * (120−V) (Formula 1)
The pixel (region) calculated by the following equation is shifted downward. Here, V in Formula 1 is the speed of the host vehicle 10. At this time, the shift distance may be enlarged / reduced simultaneously with the shift, or the line may be divided vertically at the center of the video, and the respective divided sections may be enlarged / reduced at different magnifications.

次に画像処理部2は、図5(c)に示すシフト後のラスタ画像のうち、図5(d)に示すように、表示部3に表示させる一画面分の画像領域を取り出し、図5(e)に示すように、取り出した画像領域のみの映像を作成する。すなわち、画像処理部2は、シフトさせて一画面内に含まれない映像データを切り捨てて、表示部3に表示させる部分の映像データのみを取り出す。   Next, the image processing unit 2 extracts an image area for one screen to be displayed on the display unit 3 as shown in FIG. 5D from the shifted raster image shown in FIG. As shown in (e), an image of only the extracted image area is created. That is, the image processing unit 2 shifts and discards video data that is not included in one screen, and extracts only the video data of the portion to be displayed on the display unit 3.

このような車両周囲監視システムによれば、画像処理部2により、自車両10と障害物や白線との距離の判断を難しくするような映像の不自然な歪曲を緩和することができ、不自然に歪曲した自車両10のバンパーの映像をより自然な形状で表示することで、直感的に分かりやすい映像を運転者に提供できる。   According to such a vehicle surrounding monitoring system, the image processing unit 2 can alleviate an unnatural distortion of a video that makes it difficult to determine the distance between the host vehicle 10 and an obstacle or a white line. By displaying the image of the bumper of the host vehicle 10 distorted in a more natural shape, it is possible to provide an intuitively easy-to-understand image to the driver.

これにより、車両周囲監視システムによれば、特定位置(領域)の幅方向において同じ特徴を有する映像部分を上下方向に移動させるという簡単な画像処理により、画質を殆ど劣化させることなく、歪曲を補正した映像を運転者に提供できる。   As a result, according to the vehicle surrounding monitoring system, distortion can be corrected with almost no deterioration in image quality by a simple image processing in which a video portion having the same characteristics in the width direction of a specific position (region) is moved up and down. Can be provided to the driver.

つぎに、画像処理部2により、自車両10の速度情報を入力して、特定位置(領域)を変更して画像補正処理を行う場合について説明する。   Next, a case where the image processing unit 2 inputs speed information of the host vehicle 10 and changes the specific position (region) to perform image correction processing will be described.

この画像処理部2は、センサ11,12から車速信号を入力し、当該自車両10の車速が停止又は低速(例えば5km/h〜20km/h)であるか否かを判定し、停止又は低速である場合には、特定位置(領域)を映像の下方、すなわち自車両10の近くに設定し、停止又は低速ではない場合には、車速が高いほど特定位置(領域)を映像の上方、すなわち自車両10から遠くに設定する。   The image processing unit 2 receives a vehicle speed signal from the sensors 11 and 12, determines whether the vehicle speed of the host vehicle 10 is stopped or low (for example, 5 km / h to 20 km / h), and stops or slows down. In the case of, the specific position (area) is set below the video, that is, near the host vehicle 10, and when the vehicle is not stopped or slow, the specific position (area) is set above the video as the vehicle speed increases. Set far from the host vehicle 10.

このような画像補正処理は、図6(a)に示す映像が画像処理部2に入力された場合に、車速に応じて図6(b)〜(g)に示す映像に変換する。そして、画像処理部2は、車両が停止(車速:0km/h)である場合には、白線22部分を特定位置(領域)に設定して画像補正処理を行うことによって、映像内の下方の歪曲が補正された図6(g)に示す映像データを作成する。   In such an image correction process, when the image shown in FIG. 6A is input to the image processing unit 2, it is converted into the image shown in FIGS. 6B to 6G according to the vehicle speed. Then, when the vehicle is stopped (vehicle speed: 0 km / h), the image processing unit 2 sets the white line 22 to a specific position (region) and performs image correction processing, thereby lowering the lower part of the video. The video data shown in FIG. 6G with the corrected distortion is created.

また、車速が高くなるほど、図6(g)に対して、図6(f)〜(b)に示す映像とする画像補正処理を行う。すなわち、図6(g)では、自車両10から近い白線22を幅方向において直線状に補正しているが、図6(f)〜(b)となるに従って、次第に特定位置(領域)を映像内上方に移動させることにより、自車両10から離れた地平線が次第に直線状に変換する。   Further, as the vehicle speed becomes higher, the image correction process is performed on the image shown in FIGS. 6F to 6B with respect to FIG. That is, in FIG. 6G, the white line 22 close to the host vehicle 10 is corrected to a straight line in the width direction. However, as shown in FIGS. By moving inward and upward, the horizon away from the host vehicle 10 is gradually converted into a straight line.

このとき、画像処理部2は、図6(g)については自車両10が停止している場合であって、上述の式1におけるパラメータの「120−V」を「120」とし、図6(f)については自車両10が60km/hで走行している場合であって、上述の式1におけるパラメータの「120−V」を「60」とし、図6(e)については自車両10が90km/hで走行している場合であって、上述の式1におけるパラメータの「120−V」を「30」とし、図6(d)については自車両10が120km/hで走行している場合であって、上述の式1におけるパラメータの「120−V」を「0」とし、図6(c)については自車両10が150km/hで走行している場合であって、上述の式1におけるパラメータの「120−V」を「−30」とし、図6(b)については自車両10が180km/hで走行している場合であって、上述の式1におけるパラメータの「120−V」を「−60」とする。   At this time, the image processing unit 2 is the case where the host vehicle 10 is stopped with respect to FIG. 6G, and the parameter “120−V” in the above-described equation 1 is set to “120”. f) is the case where the host vehicle 10 is traveling at 60 km / h, and the parameter “120-V” in the above equation 1 is set to “60”. In the case where the vehicle travels at 90 km / h, the parameter “120-V” in the above-described equation 1 is set to “30”, and the vehicle 10 travels at 120 km / h in FIG. In this case, the parameter “120-V” in the above equation 1 is set to “0”, and FIG. 6C shows the case where the host vehicle 10 is traveling at 150 km / h. The parameter “120-V” in FIG. And 0 ", the vehicle 10 for FIG 6 (b) is a case where running at 180 km / h, the" 120-V "parameter in Equation 1 above is" -60 ".

ここで、パラメータを正値にすることにより、図5で説明したように特定位置から幅方向に離れた縦コラムを下方向にシフトさせることができ、パラメータを負値にすることにより、特定位置から幅方向に離れた縦コラムを上方向にシフトさせることができる。   Here, by setting the parameter to a positive value, it is possible to shift the vertical column away from the specific position in the width direction downward as described in FIG. 5, and by setting the parameter to a negative value, the specific position It is possible to shift the vertical column away from the width direction upward.

また、縦コラムを上下方向にシフトさせる他の処理としては、例えば、現在の速度を維持した場合に、1秒間等の一定時間で進む距離を運転者が着目する特定位置とし、その距離だけ自車両10から前方へ進んだ場所の歪曲が最も緩和されるようにパラメータを設定してもよい。   As another process for shifting the vertical column in the vertical direction, for example, when the current speed is maintained, the distance traveled in a certain time such as 1 second is set as a specific position where the driver pays attention, and the distance is automatically The parameter may be set so that the distortion at the place where the vehicle 10 travels forward is most relaxed.

このような画像補正処理を行う画像処理部2によれば、自車両10の停車時や低速走行時には、自車両10から前方の近い位置に存在する障害物との距離を容易に判断することができると同時に、高速走行時であって車速が高い時には、運転者が着目する離れた場所の歪曲を低減するように特定位置を映像内上方に移動させ、当該特定位置における幅方向の映像を歪曲が少ない分かりやすい映像として提示できる。   According to the image processing unit 2 that performs such image correction processing, when the host vehicle 10 stops or travels at a low speed, it is possible to easily determine the distance from the host vehicle 10 to an obstacle that is located near the front. At the same time, when the vehicle is traveling at high speed and the vehicle speed is high, the specific position is moved upward in the image so as to reduce the distortion of the distant place that the driver pays attention to, and the image in the width direction at the specific position is distorted. Can be presented as an easy-to-understand video.

したがって、この車両周囲監視システムによれば、例えば、停車時又は低速走行時には、運転者の死角となる自車両10近くの障害物との接触を回避するための映像を運転者に提示し、高速走行時には、先行車両との車間を示す目安線や赤外線レーダ等のセンサ12で検出して先行車両との車間距離を前方映像に重畳して運転者に提示することが可能となる。   Therefore, according to this vehicle surrounding monitoring system, for example, when stopping or traveling at a low speed, an image for avoiding contact with an obstacle near the host vehicle 10 that becomes a blind spot of the driver is presented to the driver. When traveling, it is possible to detect the distance between the preceding vehicle and the distance between the preceding vehicle and the driver by superimposing the distance between the preceding vehicle and the sensor 12 such as a reference line indicating the distance between the preceding vehicle and an infrared radar.

すなわち、この車両周囲監視システムによれば、自車両10の速度によって運転者が着目する自車両10の前方からの距離を自車両10の速度によって推定し、特定位置を上下方向に移動させて映像の歪曲を補正することができ、運転者が見たいと思っている場所の映像を直感的に表示できる。   That is, according to this vehicle surrounding monitoring system, the distance from the front of the host vehicle 10 to which the driver pays attention is estimated based on the speed of the host vehicle 10 based on the speed of the host vehicle 10, and the specific position is moved in the vertical direction. It is possible to correct the distortion of the vehicle and intuitively display the image of the place where the driver wants to see.

つぎに、画像処理部2により、自車両10の操舵角情報を入力して、特定位置(領域)を変更して画像補正処理を行う場合について説明する。   Next, a case where the image processing unit 2 inputs the steering angle information of the host vehicle 10 and changes the specific position (region) to perform image correction processing will be described.

この画像処理部2は、センサ11,12から速度信号のみならず操舵角信号も入力し、当該自車両10の進行方向を、特定位置(領域)として設定する。すなわち、画像処理部2は、現在の操舵角から、運転者が最も着目しているため映像部分を、歪曲を最も緩和すべき場所として求めて、当該映像の箇所に応じて画像処理を行う。   The image processing unit 2 inputs not only a speed signal from the sensors 11 and 12 but also a steering angle signal, and sets the traveling direction of the host vehicle 10 as a specific position (region). That is, the image processing unit 2 obtains the video portion as a place where distortion should be most mitigated from the current steering angle, and performs image processing according to the location of the video.

ここで、自車両10の停車時又は低速走行時(例えば5km/h〜20km/h)において、自車両10の直ぐ前方に障害物が存在しない場合に運転者が着目するのは自車両10から10メートル程度離れた場所である。したがって、画像処理部2では、図7に示すように、センサ11,12である舵角センサから読み出した操舵角から推定される自車両10の予想走行軌跡を計算し、その予想走行軌跡上を10メートル程度だけ進んだ地点を着目点とする。そして、この予想走行軌跡上における着目点が、自車両10から前方にどの程度離れているかの距離を算出する。   Here, when the host vehicle 10 stops or travels at a low speed (for example, 5 km / h to 20 km / h), the driver pays attention when there is no obstacle immediately in front of the host vehicle 10 from the host vehicle 10. It is a place about 10 meters away. Therefore, as shown in FIG. 7, the image processing unit 2 calculates the predicted travel locus of the host vehicle 10 estimated from the steering angle read from the steering angle sensors that are the sensors 11 and 12, and displays the predicted travel locus on the predicted travel locus. A point that has been advanced by about 10 meters is a point of interest. Then, a distance is calculated as to how far the point of interest on the predicted travel locus is away from the host vehicle 10.

なお、予想走行軌跡を求める演算方法としては、撮像部1の映像に対して予想走行奇跡を重畳させて表示させるような既知の処理を使用することができ、撮像部1と実際の距離との対応関係により、予想走行軌跡上でどの程度だけ自車両10が進めば、映像内のどの位置まで自車両10が走行したかも求めることができる。   In addition, as a calculation method for obtaining the predicted travel locus, a known process in which an expected travel miracle is displayed superimposed on the image of the imaging unit 1 can be used. Based on the correspondence relationship, it can be determined how much the host vehicle 10 has traveled on the predicted travel locus and to what position in the image the host vehicle 10 has traveled.

したがって、この画像処理部2によれば、現在の自車両10の操舵角によって、運転者の着目点を推定して、当該着目点の映像内位置を特定位置に設定して、当該特定位置に対して映像の歪曲を補正することができる。これにより、操舵時に到達すると予想される目標位置の障害物を直感的且つ正確に把握させることができる。   Therefore, according to the image processing unit 2, the driver's point of interest is estimated based on the current steering angle of the host vehicle 10, the position in the image of the point of interest is set as the specific position, and the specific position is set. On the other hand, image distortion can be corrected. This makes it possible to intuitively and accurately grasp the obstacle at the target position that is expected to be reached during steering.

また、画像処理部2では、自車両10の速度が停車〜低速走行(例えば0〜5km/h)と判定される場合には、図8に示すように、着目点がa1,a2,a3となるように操舵角が大きくなるほど、歪曲を最も緩和すべき場所である特定位置を、自車両10前方のa1’,a2’,a3’と移動させるようにしてもよい。また、画像処理部2は、他の処理として、例えば運転者が着目する場所を、走行速度を維持した場合の2秒後の自車両10の位置であると仮定して、車速と操舵角の双方を用いて着目場所を計算して、映像内特定位置を随時変更しても良い。   Further, in the image processing unit 2, when it is determined that the speed of the host vehicle 10 is stopped to low speed traveling (for example, 0 to 5 km / h), as illustrated in FIG. 8, the points of interest are a1, a2, and a3. As the steering angle increases, the specific position that is the place where the distortion should be most relaxed may be moved to a1 ′, a2 ′, a3 ′ in front of the host vehicle 10. Further, as another process, the image processing unit 2 assumes, for example, that the place where the driver pays attention is the position of the host vehicle 10 after 2 seconds when the traveling speed is maintained. The position of interest may be calculated using both, and the specific position in the video may be changed as needed.

すなわち、自車両10が停止状態に近い時においては、運転者が注視したい位置が自車両10の直前にあるものの、特に大きく操舵した場合には、運転者の着目点が操舵進行後の到達点に移動するため、より着目点に近い映像内位置の歪曲を補正することができ、より直感的且つ正確に障害物を把握することができる。   That is, when the host vehicle 10 is close to the stop state, the position that the driver wants to watch is immediately in front of the host vehicle 10. Therefore, it is possible to correct the distortion at the position in the video closer to the point of interest, and to grasp the obstacle more intuitively and accurately.

つぎに、画像処理部2により、自車両10周囲の障害物情報を入力して、特定位置(領域)を変更して画像補正処理を行う場合について説明する。   Next, a case where the image processing unit 2 inputs obstacle information around the host vehicle 10 and changes the specific position (region) to perform image correction processing will be described.

この画像処理部2は、センサ11,12から障害物の方向及び距離を入力し、当該障害物の方向及び距離を、特定位置(領域)として設定する。すなわち、画像処理部2は、障害物の方向及び距離から、運転者が最も着目すべき映像部分を、歪曲を最も緩和すべき映像部分として求めて、当該映像部分を特定位置に設定して画像補正処理を行う。ここで、障害物の方向及び距離を検知するセンサ11,12としては、超音波センサを使用することができる。   The image processing unit 2 inputs the direction and distance of the obstacle from the sensors 11 and 12, and sets the direction and distance of the obstacle as a specific position (region). That is, the image processing unit 2 obtains the video part that the driver should pay attention to from the direction and distance of the obstacle as the video part that should most relieve the distortion, and sets the video part as a specific position. Perform correction processing. Here, ultrasonic sensors can be used as the sensors 11 and 12 for detecting the direction and distance of the obstacle.

画像処理部2は、超音波センサにより障害物との距離を検出し、その距離だけ車両から離れた場所を着目点とし、当該着目点に相当する映像内位置を特定位置に設定する。そして、上述したように、特定位置から幅方向における映像を上下方向にシフトさせることにより、映像の歪曲が最も緩和させる。   The image processing unit 2 detects the distance from the obstacle using an ultrasonic sensor, sets a point away from the vehicle by that distance as a point of interest, and sets a position in the image corresponding to the point of interest as a specific position. Then, as described above, the image distortion in the width direction is most mitigated by shifting the image in the width direction in the vertical direction from the specific position.

これにより、自車両10の付近に障害物がある場合に、その障害物の周辺の映像の歪曲を最も緩和させるため、運転者に自車両10と障害物との距離を直感的且つ正確に把握させることができ、容易に障害物と接触しないような運転をさせることができる。   As a result, when there is an obstacle in the vicinity of the host vehicle 10, the driver can intuitively and accurately grasp the distance between the host vehicle 10 and the obstacle in order to reduce the distortion of the image around the obstacle most. And can be operated so as not to come into contact with obstacles easily.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

本発明を適用した車両周囲監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring system to which this invention is applied. 本発明を適用した車両周囲監視システムの自車両への取り付け例であり、(a)は後方を監視するための構成、(b)は前方を監視するための構成である。It is the example of attachment to the own vehicle of the vehicle periphery monitoring system to which this invention is applied, (a) is the structure for monitoring back, (b) is the structure for monitoring the front. 撮像部で撮像した映像を示す図である。It is a figure which shows the image | video imaged by the imaging part. 補正後の映像を示す図である。It is a figure which shows the image | video after correction | amendment. 画像処理部の画像補正処理について説明するための図であって、(a)補正前、(b)コラム分割処理、(c)縦コラムの移動処理、(d)一画面分の映像の取り出し処理、(e)補正後を示す。It is a figure for demonstrating the image correction process of an image process part, Comprising: (a) Before correction | amendment, (b) Column division | segmentation process, (c) Vertical column movement process, (d) Video extraction process for one screen (E) After correction. 自車両の速度に応じて、特定位置を上下方向に移動させることを説明するための図であり、(a)補正前、(b)〜(g)補正後である。It is a figure for demonstrating moving a specific position to an up-down direction according to the speed of the own vehicle, (a) Before correction | amendment and (b)-(g) after correction | amendment. 自車両の操舵角に応じた進行方向により特定位置を移動させることを説明するための図である。It is a figure for demonstrating moving a specific position with the advancing direction according to the steering angle of the own vehicle. 自車両の操舵角に応じた進行方向により特定位置を上下方向に移動させることを説明するための図である。It is a figure for demonstrating moving a specific position to an up-down direction with the advancing direction according to the steering angle of the own vehicle.

符号の説明Explanation of symbols

1 撮像部
2 画像処理部
3 表示部
10 自車両
DESCRIPTION OF SYMBOLS 1 Imaging part 2 Image processing part 3 Display part 10 Own vehicle

Claims (8)

車両の周辺の映像を撮像する撮像手段と、
前記撮像手段で撮像した映像を入力して、当該映像に対して画像補正処理を行う画像処理手段と、
前記画像処理手段で画像補正処理が行われた映像を入力し、当該映像を表示する表示手段とを備え、
前記画像処理手段は、前記撮像手段で撮像された映像内に画像補正処理の基準となる特定位置を設定し、当該特定位置に対して左右方向の映像部分を上下方向にシフトさせて、前記車両の幅方向における映像内の歪曲を直線状に補正することを特徴とする車両用映像補正装置。
Image pickup means for picking up images around the vehicle;
Image processing means for inputting video captured by the imaging means and performing image correction processing on the video;
A display unit configured to input a video that has been subjected to image correction processing by the image processing unit and display the video;
The image processing means sets a specific position as a reference for image correction processing in the video imaged by the imaging means, shifts a video portion in the left-right direction up and down with respect to the specific position, and An image correction apparatus for a vehicle, wherein distortion in the image in the width direction of the vehicle is corrected linearly.
前記画像処理手段は、前記車両の運転者の着目位置に相当する前記映像内の位置を前記特定位置に設定して、前記着目位置に対して左右方向の映像部分を上下方向にシフトさせることを特徴とする請求項1に記載の車両用映像補正装置。   The image processing means sets a position in the video corresponding to a position of interest of the driver of the vehicle as the specific position, and shifts a video portion in a horizontal direction with respect to the position of interest in a vertical direction. The vehicular image correction apparatus according to claim 1, wherein 前記画像処理手段は、前記撮像手段で撮像された映像を、縦方向に画素が並んだ複数のコラムに分割し、前記特定位置に対する各コラムの幅方向位置が離れているほど当該コラムの上下方向のシフト量を多くすることを特徴とする請求項1又は請求項2に記載の車両用映像補正装置。   The image processing unit divides the video imaged by the imaging unit into a plurality of columns in which pixels are arranged in the vertical direction, and the vertical direction of the column increases as the position in the width direction of each column with respect to the specific position increases. The vehicular image correction apparatus according to claim 1, wherein the shift amount is increased. 前記画像処理手段は、前記車両の速度を入力し、前記車両が停止している場合には映像内の下方に前記特定位置を設定し、前記車両の速度が高くなるほど、映像内の上方に前記特定位置を設定することを特徴とする請求項1に記載の車両用映像補正装置。   The image processing means inputs the speed of the vehicle, sets the specific position below in the image when the vehicle is stopped, and increases the position above the image as the vehicle speed increases. The vehicular image correction apparatus according to claim 1, wherein a specific position is set. 前記画像処理手段は、前記車両の操舵角を入力して進行方向を求め、当該進行方向に応じて前記特定位置を映像内の左右方向に移動させて設定することを特徴とする請求項1に記載の車両用映像補正装置。   2. The image processing unit according to claim 1, wherein the image processing unit inputs a steering angle of the vehicle to obtain a traveling direction, and sets the specific position by moving the specific position in the left-right direction in the video according to the traveling direction. The vehicle image correction apparatus according to the description. 前記画像処理手段は、前記車両の操舵角を入力して進行方向を求め、当該進行方向に応じて前記特定位置を映像内の左右方向に移動させると共に、前記車両の操舵角が大きいほど、前記特定位置を上方に移動させることを特徴とする請求項1に記載の車両用映像補正装置。   The image processing means inputs a steering angle of the vehicle to obtain a traveling direction, moves the specific position in the left-right direction in the image according to the traveling direction, and the larger the steering angle of the vehicle, The vehicular image correction apparatus according to claim 1, wherein the specific position is moved upward. 前記画像処理手段は、前記車両に対する障害物の方向及び距離を入力して、当該障害物の方向に応じて映像内の左右方向に前記特定位置を移動させて設定し、当該障害物の距離に応じて映像内の上下方向に移動させて前記特定位置を設定することを特徴とする請求項1に記載の車両用映像補正装置。   The image processing means inputs the direction and distance of the obstacle with respect to the vehicle, and moves and sets the specific position in the left-right direction in the video according to the direction of the obstacle, and sets the distance of the obstacle. The vehicular image correction apparatus according to claim 1, wherein the specific position is set by moving the image vertically in response. 車両の周辺の映像を撮像し、
前記撮像した映像を入力して、当該映像に対して画像補正処理を行い、
前記画像補正処理が行われた映像を入力し、当該映像を表示する車両用映像補正方法であって、
前記画像処理は、前記撮像された映像内に画像補正処理の基準となる特定位置を設定し、当該特定位置に対して左右方向の映像部分を上下方向にシフトさせて、前記車両の幅方向における映像内の歪曲を直線状に補正することを特徴とする車両用映像補正方法。
Take a picture of the surroundings of the vehicle,
Input the captured video, perform image correction processing on the video,
An image correction method for a vehicle that inputs an image subjected to the image correction process and displays the image,
In the image processing, a specific position serving as a reference for image correction processing is set in the captured video, and a video portion in a horizontal direction is shifted in the vertical direction with respect to the specific position, so that An image correction method for a vehicle, wherein distortion in the image is corrected linearly.
JP2004370027A 2004-12-21 2004-12-21 Video correcting apparatus and method for vehicle Withdrawn JP2006178667A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004370027A JP2006178667A (en) 2004-12-21 2004-12-21 Video correcting apparatus and method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004370027A JP2006178667A (en) 2004-12-21 2004-12-21 Video correcting apparatus and method for vehicle

Publications (1)

Publication Number Publication Date
JP2006178667A true JP2006178667A (en) 2006-07-06

Family

ID=36732733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004370027A Withdrawn JP2006178667A (en) 2004-12-21 2004-12-21 Video correcting apparatus and method for vehicle

Country Status (1)

Country Link
JP (1) JP2006178667A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011158285A1 (en) * 2010-06-15 2011-12-22 三菱電機株式会社 Vehicle surroundings monitoring device
GB2484583A (en) * 2010-10-11 2012-04-18 Bosch Gmbh Robert Removal of distortions from image captured by a wide angle lens
JP2013242625A (en) * 2012-05-17 2013-12-05 Fujitsu Ltd Image processing device and image processing method
CN105564314A (en) * 2014-11-05 2016-05-11 现代摩比斯株式会社 Display apparatus and method considering a traveling mode of a vehicle
KR20160114323A (en) * 2015-03-24 2016-10-05 에스엘 주식회사 Environment monitoring apparatus for vehicle
KR20160116699A (en) * 2015-03-31 2016-10-10 멀티펠스 주식회사 Image processing system for automobile and image processing method therefor
DE112017007528T5 (en) 2017-05-11 2020-01-23 Mitsubishi Electric Corporation Vehicle monitoring camera device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011158285A1 (en) * 2010-06-15 2011-12-22 三菱電機株式会社 Vehicle surroundings monitoring device
JP5052707B2 (en) * 2010-06-15 2012-10-17 三菱電機株式会社 Vehicle periphery monitoring device
US9064293B2 (en) 2010-06-15 2015-06-23 Mitsubishi Electric Corporation Vehicle surroundings monitoring device
GB2484583A (en) * 2010-10-11 2012-04-18 Bosch Gmbh Robert Removal of distortions from image captured by a wide angle lens
JP2013242625A (en) * 2012-05-17 2013-12-05 Fujitsu Ltd Image processing device and image processing method
US9731720B2 (en) 2014-11-05 2017-08-15 Hyundai Mobis Co., Ltd. Display apparatus and method considering a traveling mode of a vehicle
KR20160053678A (en) * 2014-11-05 2016-05-13 현대모비스 주식회사 Apparatus and method for display considering drive mode of vehicle
KR101684939B1 (en) * 2014-11-05 2016-12-09 현대모비스 주식회사 Apparatus and method for display considering drive mode of vehicle
CN105564314A (en) * 2014-11-05 2016-05-11 现代摩比斯株式会社 Display apparatus and method considering a traveling mode of a vehicle
CN105564314B (en) * 2014-11-05 2018-04-20 现代摩比斯株式会社 Display device and method based on car travel mode
KR20160114323A (en) * 2015-03-24 2016-10-05 에스엘 주식회사 Environment monitoring apparatus for vehicle
KR101678098B1 (en) 2015-03-24 2016-11-23 에스엘 주식회사 Environment monitoring apparatus for vehicle
KR20160116699A (en) * 2015-03-31 2016-10-10 멀티펠스 주식회사 Image processing system for automobile and image processing method therefor
KR101676161B1 (en) 2015-03-31 2016-11-15 멀티펠스 주식회사 Image processing system for automobile and image processing method therefor
DE112017007528T5 (en) 2017-05-11 2020-01-23 Mitsubishi Electric Corporation Vehicle monitoring camera device
US11214248B2 (en) 2017-05-11 2022-01-04 Mitsubishi Electric Corporation In-vehicle monitoring camera device
DE112017007528B4 (en) 2017-05-11 2024-10-02 Mitsubishi Electric Corporation vehicle surveillance camera device

Similar Documents

Publication Publication Date Title
JP5615441B2 (en) Image processing apparatus and image processing method
JP4882571B2 (en) Vehicle monitoring device
US8441536B2 (en) Vehicle periphery displaying apparatus
WO2009116327A1 (en) Image processing device and method, driving support system, and vehicle
CN110877572A (en) Periphery monitoring device
US20070239357A1 (en) Driving support method and driving support device
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2006287892A (en) Driving support system
KR101487161B1 (en) parking assist method for vehicle through drag and drop
JP6089767B2 (en) Image processing apparatus, imaging apparatus, moving body control system, and program
WO2018159016A1 (en) Bird&#39;s eye view image generation device, bird&#39;s eye view image generation system, bird&#39;s eye view image generation method and program
US20210039554A1 (en) Image processing apparatus, image processing method, and image processing program
CN110798655A (en) Driving image system for eliminating pillar A blind area of mobile carrier and image processing method thereof
JP2020068515A (en) Image processing apparatus
JP3980304B2 (en) Parking assistance device
WO2011013813A1 (en) In-vehicle device and image processing program
JP2008085710A (en) Driving support system
JPWO2015129280A1 (en) Image processing apparatus and image processing method
JP2015222934A (en) Vehicle periphery display device
JP6504086B2 (en) vehicle
JP2006178667A (en) Video correcting apparatus and method for vehicle
JP2002087160A (en) Vehicular surrounding image processing device and recording medium
JP2010218058A (en) Device and method for supporting driving
JP2018171965A (en) Image display apparatus for vehicle and image processing method
US12080075B2 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090805