[go: up one dir, main page]

WO2013046407A1 - 画像表示装置及び画像表示方法 - Google Patents

画像表示装置及び画像表示方法 Download PDF

Info

Publication number
WO2013046407A1
WO2013046407A1 PCT/JP2011/072467 JP2011072467W WO2013046407A1 WO 2013046407 A1 WO2013046407 A1 WO 2013046407A1 JP 2011072467 W JP2011072467 W JP 2011072467W WO 2013046407 A1 WO2013046407 A1 WO 2013046407A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
screen
side screen
display
image display
Prior art date
Application number
PCT/JP2011/072467
Other languages
English (en)
French (fr)
Inventor
有華 祖父江
竜路 岡村
愛 吉岡
悠 日栄
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to JP2013535752A priority Critical patent/JP5871006B2/ja
Priority to PCT/JP2011/072467 priority patent/WO2013046407A1/ja
Priority to US14/347,987 priority patent/US9299260B2/en
Priority to EP11873326.0A priority patent/EP2763404B1/en
Priority to CN201180073797.2A priority patent/CN103843326A/zh
Publication of WO2013046407A1 publication Critical patent/WO2013046407A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective

Definitions

  • Embodiments described herein relate generally to an image display device and an image display method for displaying a surrounding image of a vehicle.
  • an apparatus has been proposed in which a blind spot caused by the host vehicle or a blind spot caused by an obstacle is photographed by a camera, and the photographed image is displayed using a display.
  • a blind spot caused by the host vehicle or a blind spot caused by an obstacle is photographed by a camera, and the photographed image is displayed using a display.
  • a range of 120 ° in a viewing angle of 180 ° is normally displayed on a display as a parking assistance image.
  • this device displays a wide angle range of 180 ° on the display as a parking assistance image.
  • an image in a wide angle range of 180 ° is displayed only when an obstacle is detected. Therefore, when no obstacle is detected even though the obstacle is approaching the vehicle, an image in a wide angle range of 180 ° is not displayed.
  • the driver can confirm an image in a wide-angle range of 180 ° only when an obstacle is detected. Therefore, there is room for improvement in terms of displaying an image that is easy to see and understand for the driver.
  • One embodiment of the present invention has been made in consideration of such a situation, and provides an image display device and an image display method capable of displaying an image that is easier to see and understand for a driver. is there.
  • One embodiment of the present invention includes an image acquisition unit that acquires a peripheral image of a vehicle, and an image display unit that displays the peripheral image acquired by the image acquisition unit.
  • the image display unit displays the peripheral image on the left side screen, Displayed separately on the center screen and the right side screen, and performs distortion correction to correct the distortion of the peripheral images displayed on the left side screen and right side screen, and the shape of the left side screen and right side screen corresponds to the distortion correction
  • the image display unit displays the peripheral image. Since the screen is divided into a left side screen, a center screen, and a right side screen, the driver can easily understand where the screen is displayed. Further, since the image display unit does not display the same image on the left side screen, the center screen, and the right side screen, the driver can easily understand the distance between the object in the surrounding image and the own vehicle. Further, since the image display unit performs distortion correction for correcting the distortion of the peripheral images displayed on the left side screen and the right side screen, the driver can see an easy-to-view peripheral image with the distortion corrected. Further, since the image display unit makes the shape of the left side screen and the right side screen in accordance with the distortion correction, the driver can easily understand where the object in the peripheral image is approaching.
  • the image display unit performs distortion correction for correcting distortion caused by the aberration of the wide-angle lens in the peripheral image displayed on the left side screen and the right side screen, and the left side of the left side screen and the right side of the right side screen.
  • the width of the upper and lower sides of the left side screen and the right side screen is narrowed, and the outer periphery of the left side screen has a shape having a portion facing the upper left side, and the outer periphery of the right side screen has a shape having a portion facing the upper right side. Can do.
  • the image display unit performs distortion correction for correcting distortion caused by the aberration of the wide-angle lens in the peripheral image displayed on the left side screen and the right side screen, and the left side of the left side screen and the right side of the right side screen.
  • the upper and lower widths of the left side screen and the right side screen are narrowed toward each other, and the outer periphery of the left side screen has a shape having a portion facing the upper left side, and the outer periphery of the right side screen has a shape having a portion facing the upper right side.
  • the peripheral image in which the distortion that decreases toward the far side due to the aberration of the wide-angle lens is corrected is, for example, a trapezoid having sides that are directed left and right. This makes it easier for the driver to understand where the surrounding image is captured. In addition, the driver can easily understand where an object in the surrounding image is approaching.
  • the image display unit also performs distortion correction to correct distortion due to aberration of the wide-angle lens in the peripheral images displayed on the left side screen and the right side screen, and the size of the left side screen and the right side screen is set to the size of the central screen. It can be made smaller than this.
  • the image display unit performs distortion correction for correcting distortion due to the aberration of the wide-angle lens in the peripheral image displayed on the left side screen and the right side screen, and reduces the size of the left side screen and the right side screen. Make it smaller than the size of the center screen. For this reason, the peripheral image in which the distortion that decreases toward the far side due to the aberration of the wide-angle lens is corrected is smaller in the left side screen and right side screen than the central screen, so that the driver shows where the peripheral image appears. It becomes easy to understand whether it is. In addition, the driver can easily understand where an object in the surrounding image is approaching. Furthermore, since the size of the left side screen and the right side screen is simply reduced, the processing load on the apparatus can be reduced.
  • the image display unit can display the left side screen, the center screen, and the right side screen with an interval between them.
  • the image display unit displays the left side screen, the center screen, and the right side screen with an interval between them. For this reason, it is easy for the driver to understand that the left side screen, the center screen, and the right side screen are divided.
  • the image display unit can display a driving assistance display indicating the approach of an object when an object shown in any of the peripheral images on the left side screen and the right side screen approaches the vehicle.
  • the image display unit displays a driving assistance display indicating the approach of an object when an object shown in any of the peripheral images on the left side screen and the right side screen approaches the vehicle. For this reason, even if the driver is gazing at the center screen, the driver is likely to notice an object approaching from the side.
  • an embodiment of the present invention includes an image acquisition process for acquiring a peripheral image of a vehicle, and an image display process for displaying the peripheral image acquired in the image acquisition process.
  • the screen is divided into the screen, the center screen, and the right side screen, and the distortion correction is performed to correct the distortion of the peripheral images displayed on the left side screen and the right side screen, and the shape of the left side screen and the right side screen is corrected. It is an image display method to make the shape according to.
  • the image display device of the present embodiment is configured as a driving assistance display device 1.
  • the driving assistance display device 1 includes a rear wide-angle camera 11, a vehicle speed sensor 12, a steering angle sensor 13, an ECU 20, and a display 30.
  • the driving assistance display device 1 of the present embodiment is provided in a vehicle and provides a driver with an image behind the vehicle.
  • the rear wide-angle camera 11 is a single camera for taking an image of the rear of the vehicle.
  • the rear wide-angle camera 11 is a wide-angle camera having a viewing angle of about 180 °.
  • the vehicle speed sensor 12 is a sensor that detects the vehicle speed of the vehicle.
  • the vehicle speed sensor 12 detects the vehicle speed of the vehicle by detecting the rotational speed of the axle of the vehicle.
  • the steering angle sensor 13 is a sensor that detects the steering angle of the vehicle.
  • the shift position sensor is a sensor that detects whether or not the shift position of the transmission of the vehicle is in a reverse (R) position.
  • the ECU (Electronic Control Unit) 20 controls the driving support display 1 in an integrated manner.
  • the ECU 20 is an electronic control unit composed of a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), etc.
  • the ECU 2 downloads an application program stored in the ROM to the RAM, and then the CPU. By executing the above, various arithmetic processes related to image display are executed.
  • the ECU 20 includes a moving object detection unit 21, a moving object trajectory detection unit 22, a moving object position / relative speed detection unit 23, a risk level estimation unit 24, and a display control unit 25 when classified by function. Yes.
  • the moving object detection unit 21 uses a pattern matching method for detecting an object shown in an image by collating the image with a predetermined pattern, and a direction in which a point in the image moves over time.
  • An object in the image taken by the rear wide-angle camera 11 is detected by an optical flow method of detecting an object reflected in the image by analyzing the speed.
  • the moving object detection unit 21 can also detect a stationary object.
  • the moving object trajectory detection unit 22 detects the position of the object in the image from the position and movement of the object in the image detected by the moving object detection unit 21 and the movement of the vehicle detected by the vehicle speed sensor 12 and the steering angle sensor 13. Detect the trajectory.
  • the moving object position / relative speed detection unit 23 detects the position of the object in the image and the relative speed with the vehicle based on the trajectory of the object in the image detected by the moving object trajectory detection unit 22.
  • the risk level estimation unit 24 estimates the risk level of the object in the image based on the position and relative speed of the object in the image detected by the moving object position / relative speed detection unit 23.
  • the display control unit 25 detects the position and relative speed of the object detected by the moving object position / relative speed detection unit 23, the risk estimated by the risk estimation unit 24, the vehicle speed sensor 12, and the steering. Based on the vehicle state detected by the angle sensor 13 and the shift position sensor 14, a driving support display for supporting the driving of the driver is displayed on the display 30.
  • the display 30 displays a rear image taken by the rear wide-angle camera 11.
  • a monitor provided near the driver's seat or a head-up display that displays an image on a windshield or the like can be used.
  • the driving assistance display device 1 detects an object in the vicinity of the vehicle by image recognition on an image captured by the rear wide-angle camera 11.
  • a sensor such as a radar, a lidar, or a sonar may be separately provided.
  • the driving support display device 1 As shown in FIG. 2, the driving support display device 1 according to the present embodiment is used when the host vehicle 100 moves backward from the parking position and enters the road while the host vehicle 100 moves backward and parks at the parking position.
  • the present invention is applied to assist a driver who is difficult to see behind the vehicle 100.
  • the driving assistance display device 1 detects the other vehicle V in the assistance area A, which is the imaging range of the rear wide-angle camera 11, and notifies the driver.
  • the driving assistance display device 1 As shown in FIG. 3, the driving assistance display device 1 according to the present embodiment is activated while the shift position sensor 14 is in the reverse position of the shift position of the transmission of the host vehicle 100 (S101).
  • the display control unit 25 of the ECU 20 of the driving assistance display device 1 operates a system in which detection values of the vehicle speed sensor 12 and the steering angle sensor 13 notify a moving object from the side in the driving assistance system of the driving assistance display device 1. It is determined whether or not the condition is satisfied (S102).
  • the driving support system that notifies the moving object from the side is deactivated when the speed or the steering angle exceeds a predetermined threshold.
  • the driving support display device 1 informs the driver of a moving object on the side of the host vehicle 100 only when the host vehicle 100 starts as in the situation shown in FIG. 2, the speed is in the vicinity of 0 km / h.
  • the speed is 0.1 to 3 km / h or less or 4 km / h or less
  • the operating condition of the driving support system that notifies the driver of a moving object on the side of the host vehicle 100 can be set.
  • the display control unit 25 displays the image captured by the rear wide-angle camera 11 on the display 30 by dividing it into three (S103). .
  • the original image taken by the rear wide-angle camera 11 has a viewing angle of 180 °. Due to the aberration of the wide-angle lens, the left and right edges of the image are distorted so as to be smaller and closer to the left and right edges.
  • an image captured by the rear wide-angle camera 11 is displayed on the display screen 200 by dividing it into a left and right rear side screen 204 and a central rear screen 202.
  • a predetermined interval is provided between the left and right rear side screens 204 and the center rear screen 202 so that the driver can easily understand that the image captured by the rear wide-angle camera 11 is divided.
  • the interval can be about 2 to 10 mm.
  • the display control unit 25 performs distortion correction for correcting distortion caused by the aberration of the wide-angle lens with respect to the images on the left and right rear side screens 204.
  • the display control unit 25 displays the left and right rear side screens 204 in a trapezoidal shape having opposite sides perpendicular to the left and right sides of the screen corresponding to the distortion correction applied to the left and right rear side screens 204.
  • the display control unit 25 displays the left side of the left rear side screen 204 and the right side of the right rear side screen 204 such that the vertical width of the rear side screen 204 becomes narrower. Further, the display control unit 25 displays the upper left and right sides of the left rear side screen 204 so as to face the upper left, and the upper and lower sides of the right rear side screen 204 face the upper right.
  • the display control unit 25 displays the central rear screen 202 in a rectangular shape.
  • the display control unit 25 displays a display range symbol 206 indicating which position on the host vehicle 100 the images of the left and right rear side screens 204 and the center rear screen 202 are.
  • the display control unit 25 displays a vehicle width line 208 on the central rear screen 202 for the driver to use as a driving reference when the host vehicle 100 moves backward. Thereby, the images of the left and right rear side screens 204 and the center rear screen 202 are different from each other.
  • the display control unit 25 When the vehicle speed or the rudder angle exceeds a predetermined threshold value and does not satisfy the operating condition of the driving support system that notifies the side moving object (S102), the display control unit 25 operates a part of the driving support system.
  • the driver can confirm from the rear screen 202 that an object such as the other vehicle V has approached the vicinity of the host vehicle 100. Therefore, the driving assistance display device 1 can be used as a monitor for assisting driving when the host vehicle 100 moves backward even when the driving assistance system that notifies the side moving object is not operating.
  • a pedestrian or the like in the image of the center rear screen 202 is detected and notified to the driver by a pattern matching method described later.
  • the optical flow support area Aop which is a range displayed on the rear side screen 204
  • An object is detected by an optical flow that detects an object in the image.
  • the pattern matching support area Apm which is the range displayed on the rear screen 202
  • an object is detected by pattern matching that detects an object shown in the image by collating the image with a predetermined pattern.
  • another vehicle V is approaching the host vehicle 100 from the optical flow support area Aop, and the moving object detection unit 21 of the ECU 20 of the driving support display device 1 detects the other vehicle V by the optical flow.
  • the other vehicle V and the pedestrian P approach the own vehicle 100 from the optical flow support area Aop, and the moving object detection unit 21 detects the other vehicle V and the pedestrian P by the optical flow.
  • the optical flow support area Aop it is possible to detect a moving object approaching from a distance.
  • a stationary object cannot be detected. However, since there is no possibility that a stationary object will come into contact with the host vehicle 100 unless it is in the vicinity of the host vehicle 100, only a moving object is detected by the optical flow method in the optical flow support area Aop.
  • a pedestrian P is approaching the host vehicle 100 from the pattern matching support area Apm, and the moving object detection unit 21 of the ECU 20 of the driving support display device 1 detects the pedestrian P by pattern matching.
  • the moving object detection unit 21 performs pattern matching on each pedestrian P. Is detected.
  • a moving object and a stationary object in the vicinity of the host vehicle 100 can be detected in the pattern matching support area Apm.
  • the pattern matching support area Apm it is the range in which the host vehicle 100 moves, and there is a possibility that a stationary object will come into contact with the host vehicle 100, so that it is also necessary to detect a stationary object.
  • the moving object detection unit 21 mainly collates human patterns with objects in the image as patterns for collation. The vicinity of the host vehicle 100 can also be handled by detecting a stationary object using sonar.
  • the moving object detection unit 21 of the ECU 20 of the driving support display device 1 is in the optical flow support area Aop, and a moving object such as another vehicle V or a person is approaching the support area A. Is detected (S201), and the moving object detection unit 21 detects that an object such as a pedestrian P exists in the pattern matching support area Apm and the support area A (S202).
  • the risk estimation unit 24 of the ECU 20 estimates the risk from the position and relative speed of the object (S203).
  • the display control unit 25 of the ECU 20 walks around the moving object approach detection frame 210 and the pedestrian P surrounding a part of the rear side screen 204 on the side on which the other vehicle V approaches as shown in FIG.
  • the person detection frame 212 is displayed blinking on the rear screen 202 and the rear side screen 204 (S204).
  • the risk level estimation unit 24 estimates the risk level of the object higher as the position of the object is closer to the host vehicle 100.
  • the risk level estimation unit 24 estimates the risk level of the object higher as the relative speed of the object with the host vehicle 100 increases.
  • the display control unit 25 increases the timing for displaying the moving object approach detection frame 210 and the pedestrian detection frame 212 as the risk level estimated by the risk level estimation unit 24 increases.
  • the display control unit 25 shortens the interval at which the moving object approach detection frame 210 and the pedestrian detection frame 212 blink as the risk level estimated by the risk level estimation unit 24 increases.
  • the display control unit 25 can display the brightness of the moving object approach detection frame 210 and the pedestrian detection frame 212 to be higher as the risk level estimated by the risk level estimation unit 24 is higher.
  • the display control unit 25 can change and display the colors of the moving object approach detection frame 210 and the pedestrian detection frame 212 as the risk level estimated by the risk level estimation unit 24 is higher.
  • the display control unit 25 can change the display from blue and yellow to red as the risk level estimated by the risk level estimation unit 24 increases.
  • the moving object detection unit 21 is in the optical flow support area Aop and detects that a moving object such as another vehicle V or a person approaches the support area A (S201).
  • the risk level estimation unit 24 determines the position and relative of the object.
  • the degree of danger is estimated from the speed (S205).
  • the display control unit 25 sets the moving object approach detection frame 210 surrounding a part of the rear side screen 204 on the side on which the other vehicle V approaches as shown in FIG.
  • the screen 204 is displayed while blinking (S206).
  • the moving object detection unit 21 is in the optical flow support area Aop and detects that a moving object such as another vehicle V or a person approaches the support area A (S201). When it is detected that 21 is within the pattern matching support area Apm and an object such as a pedestrian P is present in the support area A (S207), the risk estimation unit 24 determines from the position and relative speed of the object. A risk level is estimated (S208). As described above, the display control unit 25, based on the degree of risk, the moving object approach detection frame 210 and a pedestrian surrounding a part of the rear side screen 204 on the side on which the other vehicle V approaches as shown in FIG. The pedestrian detection frame 212 surrounding P is displayed while blinking on the rear screen 202 and the rear side screen 204 (S204).
  • the display control unit 25 and the display 30 of the ECU 20 are Since the rear image is divided and displayed on the left and right rear side screens 204 and the center rear screen 202, it is easy for the driver to understand where the driver is displaying. Further, since the display control unit 25 and the display 30 do not display the same image on the left and right rear side screens 204 and the center rear screen 202, the driver can easily understand the distance between the object in the rear image and the host vehicle 100. Become.
  • the display control unit 25 performs distortion correction for correcting the distortion of the rear image displayed on the left and right rear side screens 204, the driver can view an easy-to-view rear image with the distortion corrected. Further, the display control unit 25 makes the shape of the left and right rear side screens 204 in accordance with the distortion correction, so that the driver can easily understand where the object in the rear image is approaching.
  • the display control unit 25 displays the left and right rear side screens 204 and the center rear screen 202 with a space therebetween. For this reason, it is easy for the driver to understand that the left and right rear side screens 204 and the center rear screen 202 are divided.
  • the display screen 200 can be easily used as a back guide monitor by enlarging the central rear screen 202.
  • the driver can easily recognize an object approaching from the side by the moving object approach detection frame 210. Further, in this embodiment, there is no trouble of switching the screen from normal to wide angle.
  • the display control unit 25 displays a moving object approach detection frame 210 indicating the approach of the object when the object shown on the left and right rear side screens 204 approaches the host vehicle 100. For this reason, even if the driver is gazing at the center screen, the driver is likely to notice an object approaching from the side.
  • the display control unit 25 does not display the moving object approach detection frame 210 when either the speed or the steering angle of the host vehicle 100 is equal to or greater than a predetermined threshold.
  • a predetermined threshold As a method for detecting the approach of an object, there are radar, lidar, sonar, image recognition, and the like. However, when the vehicle speed and the steering angle are large, there is a risk of false detection or no detection. Misdetection or non-detection also leads to distrust of the driver's system. Therefore, by not displaying the moving object approach detection frame 210 when the speed and the steering angle of the host vehicle 100 are equal to or greater than the threshold value, it is possible to prevent erroneous detection and undetection of an object approaching the host vehicle 100.
  • 30 shows the rear image divided into a left and right rear side screen 204 and a center rear screen 202, and the image of the center rear screen 202 is shown in the image by matching the image with a predetermined pattern.
  • the left and right rear side screen images 204 are detected, and the object in the image is detected by analyzing the direction and speed at which the points in the image move over time.
  • a moving object approach detection frame 210 or a pedestrian detection frame 212 indicating the presence is displayed.
  • a pattern matching method for collating an image with a predetermined pattern for a person who is stopped near the front of the host vehicle 100, a person who is present near the front of the host vehicle 100 when the host vehicle 100 is moving, and the like. And the driver can be notified of the presence of the detected person. Further, a person and a vehicle approaching from a distance on the side of the own vehicle 100 are detected by an optical flow method for analyzing the direction and speed at which a point in the image moves over time, and the detected person and the vehicle are detected. Can be notified to the driver. Therefore, the object can be detected and displayed more appropriately according to the position, speed, and type of the object.
  • the display control unit 25 detects the pedestrian P shown in the image of the center rear screen 202
  • the display control unit 25 displays a pedestrian detection frame 212 surrounding the pedestrian P, and either the left or right rear side screen 204 is displayed.
  • a moving object approach detection frame 210 surrounding at least a part of either the left or right rear side screen 204 where the object is detected is displayed.
  • the image display device and the image display method of the embodiment of the present invention described above it is possible to display an image that is easier to see and understand for the driver.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

 後方広角カメラ11と後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示するため、ドライバーはどこを表示しているのかが判り易くなる。表示制御部25及びディスプレイ30は、左右の後側方画面204及び中央の後方画面202で同じ画像を表示しないため、ドライバーは後方画像中の物体と自車両100との距離が判り易くなる。表示制御部25は、左右の後側方画面204に表示される後方画像の歪みを補正する歪み補正を施すため、ドライバーは歪曲を補正した見易い後方画像を見ることができる。表示制御部25は、左右の後側方画面204の形状を歪み補正に応じた形状とするため、ドライバーは後方画像中の物体がどこから接近しているのかが判り易くなる。

Description

画像表示装置及び画像表示方法
 本発明の一実施形態は、車両の周辺画像を表示する画像表示装置及び画像表示方法に関する。
 微低速走行時において、自車両による死角及び壁や隣接する他車両等の遮蔽物による死角によって、ドライバーが見たい場所が目視によって見えない場合がある。そこで、自車両による死角や遮蔽物による死角をカメラで撮影し、撮影した画像をディスプレイとを用いて表示する装置が提案されている。例えば、特許文献1の装置では、180°の視角を有する広角カメラで撮影した画像について、通常時は180°の視角中の120°の範囲をディスプレイに表示して駐車支援画像とする。障害物が検出されたときは、この装置は180°の広角の範囲をディスプレイに表示して駐車支援画像とする。
特開2009-65483号公報
 ところで、上記技術では180°の広角の範囲の画像は、障害物の検出時にしか表示されない。そのため、車両に障害物が接近しているにも関わらず、障害物が検出されなかったときは、180°の広角の範囲の画像は表示されない。また、上記技術では、障害物が検出されたときにしか、ドライバーは180°の広角の範囲の画像を確認することができない。そのため、ドライバーにとって見易く判り易い画像を表示するという点で改善の余地がある。
 本発明の一実施形態は、このような実情を考慮してなされたものであり、ドライバーにとって、より見易く、より判り易い画像を表示することができる画像表示装置及び画像表示方法を提供することにある。
 本発明の一実施形態は、車両の周辺画像を取得する画像取得ユニットと、画像取得ユニットが取得した周辺画像を表示する画像表示ユニットとを備え、画像表示ユニットは、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、左側方画面及び右側方画面に表示される周辺画像の歪みを補正する歪み補正を施し、左側方画面及び右側方画面の形状を歪み補正に応じた形状とする画像表示装置である。
 この構成によれば、車両の周辺画像を取得する画像取得ユニットと、画像取得ユニットが取得した周辺画像を表示する画像表示ユニットとを備えた運転支援表示装置において、画像表示ユニットは、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示するため、ドライバーはどこを表示しているのかが判り易くなる。また、画像表示ユニットは、左側方画面、中央画面及び右側方画面で同じ画像を表示しなくなるため、ドライバーは周辺画像中の物体と自車両との距離が判り易くなる。また、画像表示ユニットは、左側方画面及び右側方画面に表示される周辺画像の歪みを補正する歪み補正を施すため、ドライバーは歪曲を補正した見易い周辺画像を見ることができる。また、画像表示ユニットは、左側方画面及び右側方画面の形状を歪み補正に応じた形状とするため、ドライバーは周辺画像中の物体がどこから接近しているのかが判り易くなる。
 この場合、画像表示ユニットは、左側方画面及び右側方画面に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左側方画面の左側方及び右側方画面の右側方ほど左側方画面及び右側方画面の上下の幅を狭くし、左側方画面の外周は左側上方を向いた部分を有する形状とし、右側方画面の外周は右側上方を向いた部分を有する形状とすることができる。
 この構成によれば、画像表示ユニットは左側方画面及び右側方画面に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左側方画面の左側方及び右側方画面の右側方ほど左側方画面及び右側方画面の上下の幅を狭くし、左側方画面の外周は左側上方を向いた部分を有する形状とし、右側方画面の外周は右側上方を向いた部分を有する形状とする。このため、広角レンズの収差により遠方に向かって小さくなる歪みが補正された周辺画像は、例えば左右上方に向いた辺を有する台形である。そのため、ドライバーは周辺画像がどこを写しているのかが判り易くなる。また、ドライバーは、周辺画像中の物体がどこから接近して来るのかが判り易くなる。
 また、画像表示ユニットは、左側方画面及び右側方画面に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左側方画面及び右側方画面の大きさを中央画面の大きさよりも小さくすることができる。
 この構成によれば、画像表示ユニットは、左側方画面及び右側方画面に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左側方画面及び右側方画面の大きさを中央画面の大きさよりも小さくする。このため、広角レンズの収差により遠方に向かって小さくなる歪みが補正された周辺画像は、左側方画面及び右側方画面の大きさが中央画面よりも小さいことで、ドライバーは周辺画像がどこを写しているのかが判り易くなる。また、ドライバーは、周辺画像中の物体がどこから接近して来るのかが判り易くなる。さらに、単に左側方画面及び右側方画面の大きさを小さくするだけであるため、装置の処理負荷を軽減することができる。
 また、画像表示ユニットは、左側方画面、中央画面及び右側方画面それぞれの間に間隔を空けて表示することができる。
 この構成によれば、画像表示ユニットは、左側方画面、中央画面及び右側方画面それぞれの間に間隔を空けて表示する。このため、ドライバーは、左側方画面、中央画面及び右側方画面それぞれが分割されていることが判り易い。
 また、画像表示ユニットは、左側方画面及び右側方画面のいずれかの周辺画像に写った物体が車両に接近するときは、物体の接近を示す運転支援表示を表示することができる。
 この構成によれば、画像表示ユニットは、左側方画面及び右側方画面のいずれかの周辺画像に写った物体が車両に接近するときは、物体の接近を示す運転支援表示を表示する。このため、ドライバーは中央画面を注視していたとしても、側方から接近する物体に気付き易い。
 また、本発明の一実施形態は、車両の周辺画像を取得する画像取得工程と、画像取得工程で取得した周辺画像を表示する画像表示工程とを含み、画像表示工程は、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、左側方画面及び右側方画面に表示される周辺画像の歪みを補正する歪み補正を施し、左側方画面及び右側方画面の形状を歪み補正に応じた形状とする画像表示方法である。
 本発明の一実施形態によれば、ドライバーにとって、より見易く、より判り易い画像を表示することができる。
実施形態の運転支援表示装置の構成を示すブロック図である。 実施形態の運転支援表示装置が適用される状況を示す平面図である。 実施形態の運転支援表示装置の基本的な動作を示すフローチャートである。 後方広角カメラが撮像した未処理の元画像を示す図である。 実施形態の運転支援表示システムの作動時において接近してくる移動物が存在しないときの表示画像を示す図である。 実施形態の運転支援表示システムの作動時において接近してくる移動物が存在するときの表示画像を示す図である。 実施形態の運転支援表示システムの非作動時において接近してくる移動物が存在しないときの表示画像を示す図である。 実施形態の運転支援表示システムの非作動時において接近してくる移動物が存在するときの表示画像を示す図である。 実施形態の運転支援表示装置のオプティカルフローのエリアに物体が存在するときの状況を示す平面図である。 実施形態の運転支援表示装置のオプティカルフローのエリアに物体が存在するときの運転支援の対象を示す平面図である。 実施形態の運転支援表示装置のパターンマッチングのエリアに物体が存在するときの状況を示す平面図である。 実施形態の運転支援表示装置のパターンマッチングのエリアに物体が存在するときの運転支援の対象を示す平面図である。 実施形態の運転支援表示装置の各支援エリア及び各対象物に応じた動作を示すフローチャートである。 実施形態の運転支援表示装置のオプティカルフローのエリアに移動物が存在し、パターンマッチングのエリアに人が存在するときの表示画像を示す図である。 実施形態の運転支援表示装置のパターンマッチングのエリアに人が存在するときの表示画像を示す図である。 別の実施形態の表示画像を示す図である。 別の実施形態の表示画像を示す図である。
 以下、図面を参照して本発明の実施形態に係る画像表示装置及び画像表示方法について説明する。図1に示すように、本実施形態の画像表示装置は運転支援表示装置1として構成されている。運転支援表示装置1は、後方広角カメラ11、車速センサ12、操舵角センサ13、ECU20及びディスプレイ30を備えている。本実施形態の運転支援表示装置1は、車両に備えられ、車両の後方の画像をドライバーに提供するものである。
 後方広角カメラ11は、車両の後方の画像を撮影するための1台のカメラである。後方広角カメラ11は、視角が180°程度の広角カメラである。車速センサ12は、車両の車速を検出するセンサである。例えば車速センサ12は、車両の車軸の回転速度を検出することにより、車両の車速を検出する。操舵角センサ13は、車両の操舵角を検出するセンサである。シフト位置センサは、車両のトランスミッションのシフト位置が後退(Reverse:R)の位置にあるか否かを検出するセンサである。
 ECU(Electronic Control Unit)20は、運転支援表示1を統括的に制御する。ECU20は、CPU(Central Processing Unit]、ROM(Read Only Memory)、RAM(Random Access Memory)などからなる電子制御ユニットである。ECU2では、ROMに記憶されているアプリケーションプログラムをRAMにダウンロードし、CPUで実行することで、画像表示に係る各種演算処理を実行する。
 ECU20は、その機能ごとに分類した場合には、移動物体検出部21、移動物軌道検出部22、移動物体位置・相対速度検出部23、危険度推定部24及び表示制御部25を有している。
 移動物体検出部21は、後述するように、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる方法と、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる方法とにより、後方広角カメラ11により撮影された画像中の物体を検出する。なお、後述するように、パターンマッチングにより物体を検出する場合には、移動物体検出部21は静止物体を検出することもできる。
 移動物軌道検出部22は、移動物体検出部21により検出された画像中の物体の位置及び動きと、車速センサ12及び操舵角センサ13により検出された車両の動きとから、画像中の物体の軌道を検出する。
 移動物体位置・相対速度検出部23は、移動物軌道検出部22により検出された画像中の物体の軌道に基づいて、画像中の物体の位置及び車両との相対速度を検出する。
 危険度推定部24は、移動物体位置・相対速度検出部23により検出された画像中の物体の位置及び相対速度に基づいて、画像中の物体の危険度を推定する。
 表示制御部25は、後述するように、移動物体位置・相対速度検出部23により検出された物体の位置及び相対速度と、危険度推定部24により推定された危険度と、車速センサ12、操舵角センサ13及びシフト位置センサ14により検出された車両の状態とから、ドライバーの運転を支援するための運転支援表示をディスプレイ30に表示する。
 ディスプレイ30は、後方広角カメラ11により撮影された後方画像を表示する。ディスプレイ30は、例えば、運転席近傍に設けられるモニタや、フロントガラス等に画像を表示するヘッドアップディスプレイを使用することができる。
 なお、本実施形態では、運転支援表示装置1は、後方広角カメラ11により撮影された画像に対する画像認識により車両近傍の物体を検出する。しかし、車両近傍の物体を検出するために、別途、レーダ、ライダ、ソナー等のセンサを備えていても良い。
 以下、本実施形態の運転支援表示装置1の動作について説明する。図2に示すように、本実施形態の運転支援表示装置1は、自車両100が後退しつつ駐車位置から道路に出る場合、及び自車両100が後退しつつ駐車位置に駐車する場合に、自車両100の後方を見ることが難しいドライバーの運転を支援するために適用される。運転支援表示装置1は、後方広角カメラ11の撮像範囲である支援エリアA内の他車両V等を検出し、ドライバーに報知する。
 まず、本実施形態の運転支援表示装置1の基本的な動作について説明する。図3に示すように、本実施形態の運転支援表示装置1は、シフト位置センサ14が自車両100のトランスミッションのシフト位置が後退の位置にある間に作動状態となる(S101)。
 運転支援表示装置1のECU20の表示制御部25は、車速センサ12及び操舵角センサ13の検出値が運転支援表示装置1の運転支援システムの内で側方からの移動物を報知するシステムの作動条件であるか否かを判定する(S102)。
 移動物を検出する方法としては、レーダ、ライダ、ソナー及び画像認識等があるが、センサの性能や画像認識の精度により、自車両100の速度や操舵角等の条件によっては誤検知又は未検知等の恐れがある。誤検出及び未検出はドライバーが運転支援表示装置1の運転支援システムに不信を抱く。そのため、本実施形態では、側方からの移動物を報知する運転支援システムを速度や舵角が所定の閾値以上になった場合は非作動とする。
 例えば図2に示す状況のように自車両100が発進するときにのみ、運転支援表示装置1が自車両100側方の移動物体をドライバーに報知する場合は、速度が0km/h近傍である場合又は速度が0.1~3km/h以下又は4km/h以下である場合を自車両100側方の移動物体をドライバーに報知する運転支援システムの作動条件にできる。
 側方の移動物体を報知する運転支援システムの作動条件である場合は(S102)、表示制御部25はディスプレイ30に、後方広角カメラ11により撮影された画像を3分割して表示する(S103)。図4の表示画面200に示すように、後方広角カメラ11により撮影された元の画像は180°の視角を有する。画像の左右端部は広角レンズの収差により、左右端部に向かうほど小さく上方に見える歪みが生じている。
 本実施形態では、図5に示すように、表示画面200に、後方広角カメラ11により撮影された画像を左右の後側方画面204及び中央の後方画面202に3分割して表示する。左右の後側方画面204及び中央の後方画面202の間は、後方広角カメラ11により撮影された画像が分割されていることがドライバーに判り易いように所定の間隔が隔てられている。この場合の間隔は、2~10mm程度とすることができる。
 表示制御部25は、左右の後側方画面204の画像に対して広角レンズの収差による歪みを補正する歪み補正を施す。表示制御部25は、左右の後側方画面204に施した歪み補正に対応して、左右の後側方画面204を画面の左右に垂直な対辺を有する台形に表示する。表示制御部25は、左の後側方画面204の左側方及び右の後側方画面204の右側方ほど、後側方画面204の上下の幅が狭くなるように表示する。また、表示制御部25は、左の後側方画面204の上下の辺は左上方を向き、右の後側方画面204の上下の辺は右上方を向くように表示する。
 表示制御部25は、中央の後方画面202を長方形となるように表示する。表示制御部25は、左右の後側方画面204及び中央の後方画面202の画像が自車両100のどの位置の画像であるのかを示す表示範囲シンボル206を表示する。また、表示制御部25は、自車両100の後退時にドライバーが運転の基準とするための車幅ライン208を中央の後方画面202に表示する。これにより、左右の後側方画面204及び中央の後方画面202の画像はそれぞれ異なる画像となる。
 運転支援表示装置1のECU20の移動物体検出部21が後述するオプティカルフローの手法により、他車両V等の移動物体を検出したときは(S104)、表示制御部25は、図6に示すように、他車両Vが自車両100に接近してくる側の後側方画面204及び後方画面202の一部を他車両Vが接近してくる方向から囲む移動物接近検出枠210を表示する(S105)。移動物接近検出枠210が囲む範囲は、後側方画面204及び後方画面202の画像中におけるオプティカルフローによる検知範囲を示している。なお、本実施形態では、自車両100近傍に歩行者等の静止物体が存在する場合もドライバーに報知するがその際の動作については後述する。
 車速又は舵角が所定の閾値を越えており、側方の移動物体を報知する運転支援システムの作動条件を満たさないときは(S102)、表示制御部25は運転支援システムの一部を作動させず、図7に示すように中央の後方画面202のみを表示する(S106)。この場合、図8に示すように、ドライバーは、他車両V等の物体が自車両100近傍に接近してきたことは、後方画面202により確認可能である。そのため、側方の移動物体を報知する運転支援システムの非作動時であっても、自車両100の後退時の運転を支援するモニタとして運転支援表示装置1を利用することができる。さらに、側方の移動物体を報知する運転支援システムの非作動時であっても、後述するパターンマッチングによる手法により、中央の後方画面202の画像中の歩行者等は検出され、ドライバーに報知される。
 以下、本実施形態の運転支援表示装置1の物体を検出する動作について説明する。図9に示すように、本実施形態では、後側方画面204に表示される範囲であるオプティカルフロー支援エリアAopでは、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる物体の検出が行われる。一方、後方画面202に表示される範囲であるパターンマッチング支援エリアApmでは、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる物体の検出が行われる。
 図9の例では、オプティカルフロー支援エリアAopから自車両100に他車両Vが接近しており、運転支援表示装置1のECU20の移動物体検出部21は、オプティカルフローにより、他車両Vを検出する。図10の例では、オプティカルフロー支援エリアAopから自車両100に他車両V及び歩行者Pが接近しており、移動物体検出部21は、オプティカルフローにより、他車両V及び歩行者Pを検出する。いずれの例でも、オプティカルフロー支援エリアAopでは、遠方から接近する移動物体を検出可能である。オプティカルフロー支援エリアAopでは静止物体は検出不可能である。しかし、自車両100近傍でなければ、静止物体が自車両100に接触する可能性は無いため、オプティカルフロー支援エリアAopでは、移動物体のみをオプティカルフローによる方法により検出する。
 図11の例では、パターンマッチング支援エリアApmから自車両100に歩行者Pが接近しており、運転支援表示装置1のECU20の移動物体検出部21は、パターンマッチングにより、歩行者Pを検出する。図12の例では、パターンマッチング支援エリアApmから自車両100に移動中の歩行者P及び静止中の歩行者Pが存在しており、移動物体検出部21は、パターンマッチングにより、歩行者Pそれぞれを検出する。いずれの例でも、パターンマッチング支援エリアApmでは、自車両100近傍の移動物体及び静止物体を検出可能である。パターンマッチング支援エリアApmでは、自車両100が移動する範囲であり、静止物体が自車両100に接触する可能性があるため、静止物体も検出する必要がある。パターンマッチング支援エリアApmでは、移動物体検出部21は、照合するためのパターンとして主に人のパターンと画像中の物体との照合を行う。なお、自車両100近傍についてはソナーによって静止物体を検出することでも対応可能である。
 図13に示すように、運転支援表示装置1のECU20の移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出した場合(S202)、ECU20の危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S203)。ECU20の表示制御部25は、危険度を基に図14に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210と歩行者Pを囲む歩行者検出枠212とを後方画面202及び後側方画面204に点滅させつつ表示する(S204)。
 危険度推定部24は、物体の位置が自車両100から近いほど、当該物体の危険度を高く推定する。危険度推定部24は、物体の自車両100との相対速度が大きいほど、当該物体の危険度を高く推定する。表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212を表示する時期を早くする。表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212を点滅させる間隔を短くする。
 あるいは、表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212の輝度が高くなるように表示することができる。あるいは、表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212の色を変化させて表示することができる。例えば、表示制御部25は、危険度推定部24が推定した危険度が高くなるほど、青色、黄色から赤色に変化させて表示することができる。
 移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出していない場合(S202)、危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S205)。表示制御部25は、上述したように危険度を基にして、図6に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210を後側方画面204に点滅させつつ表示する(S206)。
 移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出した場合(S207)、危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S208)。表示制御部25は、上述したように危険度を基にして、図15に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210と歩行者Pを囲む歩行者検出枠212とを後方画面202及び後側方画面204に点滅させつつ表示する(S204)。
 本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示するため、ドライバーはどこを表示しているのかが判り易くなる。また、表示制御部25及びディスプレイ30は、左右の後側方画面204及び中央の後方画面202で同じ画像を表示しなくなるため、ドライバーは後方画像中の物体と自車両100との距離が判り易くなる。また、表示制御部25は、左右の後側方画面204に表示される後方画像の歪みを補正する歪み補正を施すため、ドライバーは歪曲を補正した見易い後方画像を見ることができる。また、表示制御部25は、左右の後側方画面204の形状を歪み補正に応じた形状とするため、ドライバーは後方画像中の物体がどこから接近しているのかが判り易くなる。
 また、表示制御部25は、左右の後側方画面204に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左の後側方画面204の左側方及び右の後側方画面204の右側方ほど後側方画面204の上下の幅を狭くし、左の後側方画面204の上下の辺は左側上方を向いた形状とし、右の後側方画面204の上下の辺は右側上方を向いた部分を有する台形とする。このため、そのため、ドライバーは後方画像がどこを写しているのかが判り易くなる。また、ドライバーは、後方画像中の物体がどこから接近して来るのかが判り易くなる。
 また、表示制御部25は、左右の後側方画面204及び中央の後方画面202それぞれの間に間隔を空けて表示する。このため、ドライバーは、左右の後側方画面204及び中央の後方画面202それぞれが分割されていることが判り易い。
 また、表示制御部25は、左右の側方画面204のいずれかの後方画像に写った物体が自車両100に接近するときは、物体の接近を示す移動物接近検出枠210を表示する。このため、ドライバーは中央の後方画面202を注視していたとしても、側方から接近する物体に気付き易い。
 すなわち、本実施形態では、中央の後方画面202を大きくすることにより、表示画面200をバックガイドモニターとして使用しやすい。後方画面202を大きくし、後側方画面204を小さく表示することにより、側方から接近する物体は画面で小さくなる。しかし、ドライバーが中央の後方画面202を注視していたとしても、ドライバーは側方から接近する物体を移動物接近検出枠210により気付き易い。また、本実施形態では、画面を通常から広角へ切り替える煩わしさがない。
 また、本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を複数の画面に分割して表示しつつ、自車両100のドライバーの運転を支援する移動物接近検出枠210及び歩行者検出枠212を表示することが可能であり、移動物接近検出枠210を表示するときと、移動物接近検出枠210を表示しないときとで、表示する画面の数を変更する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とをより認識し易くなる。
 また、表示制御部25は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示することが可能であり、移動物接近検出枠210及び歩行者検出枠212を表示するときは、左右の後側方画面204及び中央の後方画面202を表示し、移動物接近検出枠210を表示しないときは、中央の後方画面202のみを表示する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とを認識し易い。また、移動物接近検出枠210を表示するシステムの非作動時にも、中央の後方画面202は表示されるため、中央の後方画面202を後方監視のために用いることができる。
 また、表示制御部25は、左右の後側方画面204に写った物体が自車両100に接近するときに物体の接近を示す移動物接近検出枠210を表示する。このため、ドライバーは中央画面を注視していたとしても、側方から接近する物体に気付き易い。
 また、表示制御部25は、自車両100の速度及び舵角のいずれかが所定の閾値以上のときは、移動物接近検出枠210を表示しない。物体の接近を検知する手法としては、レーダ、ライダ、ソナー及び画像認識等があるが、車両の速度や舵角が大きい場合は誤検知や未検知等の恐れがある。誤検知や未検知はドライバーのシステムへの不信にもつながる。そのため、自車両100の速度及び舵角が閾値以上のときに移動物接近検出枠210を表示しないことにより、自車両100に接近する物体の誤検知や未検知を防止することができる。
 また、本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示し、中央の後方画面202の画像について、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出し、左右の後側方画面204の画像について、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出し、検出された物体の存在を示す移動物接近検出枠210又は歩行者検出枠212を表示する。このため、自車両100正面近傍で停止している人、自車両100が移動しているときに自車両100正面近傍に存在する人等を画像と所定のパターンとの照合を行うパターンマッチングの手法で検出し、検出した人等の存在をドライバーに報知することができる。また、自車両100側方の遠方から接近してくる人及び車両等を画像中の点が時間の経過とともに動く方向と速さとを解析するオプティカルフローの手法により検出し、検出した人及び車両等の存在をドライバーに報知することができる。したがって、物体の位置、速度及び種類に応じてより適切に物体を検出して表示することができる。
 また、表示制御部25は、中央の後方画面202の画像に写った歩行者Pを検出したときは、歩行者Pを囲む歩行者検出枠212を表示し、左右の後側方画面204いずれかの画像に写った物体を検出したときは、物体が検出された左右の後側方画面204いずれかの少なくとも一部を囲む移動物接近検出枠210を表示する。これにより、ドライバーは、中央の後方画面202と、左右の後側方画面204とで物体を検出する手法が異なることを認識することができる。つまり、中央の後方画面202と、左右の後側方画面204とで枠の囲み方を変えることで、中央の後方画面では人しか検出しないことをドライバーに知らせることができる。
 ドライバーは、側方は主に発進時に確認し、後方中央は発進時及び移動時に確認することが多い。移動時の場合、より素早く物体を確認する必要があるため、物体を歩行者検出枠212で囲むことによって、物体の位置も認識することができる。
 尚、本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記実施形態での運転支援表示装置1の処理負荷が高い場合は、図16に示すように、後側方画面204’の大きさを歪み補正に合せて小さくするだけでも良い。上述したように、移動物を検知したことをドライバーに報知する移動物接近検出枠210は、物体を検出した範囲によって変更する。後側方画面204’内の場合は後側方画面204’のみに移動物接近検出枠210を表示しても良い。
 また、上記実施形態では、運転支援システムの非作動時に後側方画面204を消去した。しかし、運転支援システムの非作動時に後側方画面204を消去してしまうと、ドライバーによっては後側方画面204を見たいにも関わらず見れないと感じる場合もある。このため、図17に示すように、運転支援システムの非作動時に、後側方画面204を表示しつつ、後側方画面204に非作動表示ライン214を表示することもできる。
 上記の本発明の一実施形態の画像表示装置及び画像表示方法によれば、ドライバーにとって、より見易く、より判り易い画像を表示することができる。
1 運転支援表示装置
11 後方広角カメラ
12 車速センサ
13 操舵角センサ
14 シフト位置センサ
20 ECU
21 移動物体検出部
22 移動物軌道検出部
23 移動物体位置・相対速度検出部
24 危険度推定部
25 表示制御部
30 ディスプレイ
100 自車両
200 表示画面
202 後方画面
204,204’ 後側方画面
206 表示範囲シンボル
208 車幅ライン
210 移動物接近検出枠
212 歩行者検出枠
214 非作動表示ライン
A…支援エリア
Aop…オプティカルフロー支援エリア
Apm…パターンマッチング支援エリア
V…他車両
P…歩行者

Claims (6)

  1.  車両の周辺画像を取得する画像取得ユニットと、
     前記画像取得ユニットが取得した前記周辺画像を表示する画像表示ユニットと、
    を備え、
     前記画像表示ユニットは、
     前記周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、
     前記左側方画面及び前記右側方画面に表示される前記周辺画像の歪みを補正する歪み補正を施し、
     前記左側方画面及び前記右側方画面の形状を前記歪み補正に応じた形状とする、画像表示装置。
  2.  前記画像表示ユニットは、
     前記左側方画面及び前記右側方画面に表示される前記周辺画像の広角レンズの収差による歪みを補正する前記歪み補正を施し、
     前記左側方画面の左側方及び前記右側方画面の右側方ほど前記左側方画面及び前記右側方画面の上下の幅を狭くし、前記左側方画面の外周は左側上方を向いた部分を有する形状とし、前記右側方画面の外周は右側上方を向いた部分を有する形状とする、請求項1に記載の画像表示装置。
  3.  前記画像表示ユニットは、
     前記左側方画面及び前記右側方画面に表示される前記周辺画像の広角レンズの収差による歪みを補正する前記歪み補正を施し、
     前記左側方画面及び前記右側方画面の大きさを前記中央画面の大きさよりも小さくする、請求項1に記載の画像表示装置。
  4.  前記画像表示ユニットは、前記左側方画面、前記中央画面及び前記右側方画面それぞれの間に間隔を空けて表示する、請求項1~3のいずれか1項に記載の画像表示装置。
  5.  前記画像表示ユニットは、前記左側方画面及び前記右側方画面のいずれかの前記周辺画像に写った物体が前記車両に接近するときは、前記物体の接近を示す運転支援表示を表示する、請求項1~4のいずれか1項に記載の画像表示装置。
  6.  車両の周辺画像を取得する画像取得工程と、
     前記画像取得工程で取得した前記周辺画像を表示する画像表示工程と、
    を含み、
     前記画像表示工程は、
     前記周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、
     前記左側方画面及び前記右側方画面に表示される前記周辺画像の歪みを補正する歪み補正を施し、
     前記左側方画面及び前記右側方画面の形状を前記歪み補正に応じた形状とする、画像表示方法。
PCT/JP2011/072467 2011-09-29 2011-09-29 画像表示装置及び画像表示方法 WO2013046407A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013535752A JP5871006B2 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法
PCT/JP2011/072467 WO2013046407A1 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法
US14/347,987 US9299260B2 (en) 2011-09-29 2011-09-29 Image display device, and image display method
EP11873326.0A EP2763404B1 (en) 2011-09-29 2011-09-29 Image display device, and image display method
CN201180073797.2A CN103843326A (zh) 2011-09-29 2011-09-29 图像显示装置及图像显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/072467 WO2013046407A1 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法

Publications (1)

Publication Number Publication Date
WO2013046407A1 true WO2013046407A1 (ja) 2013-04-04

Family

ID=47994514

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/072467 WO2013046407A1 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法

Country Status (5)

Country Link
US (1) US9299260B2 (ja)
EP (1) EP2763404B1 (ja)
JP (1) JP5871006B2 (ja)
CN (1) CN103843326A (ja)
WO (1) WO2013046407A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
WO2014066512A1 (en) 2012-10-23 2014-05-01 Tk Holdings Inc. Steering wheel light bar
JP6266238B2 (ja) * 2013-07-03 2018-01-24 クラリオン株式会社 接近物検出システム、及び車両
US9098753B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
JP6648109B2 (ja) 2014-07-23 2020-02-14 ジョイソン セイフティ システムズ アクイジション エルエルシー ステアリンググリップライトバーシステム
US9580012B2 (en) * 2015-03-02 2017-02-28 Tk Holdings Inc. Vehicle object detection and notification system
US10036843B2 (en) 2015-04-24 2018-07-31 Joyson Safety Systems Acquisition Llc Steering wheel light bar
DE102015011536A1 (de) * 2015-09-02 2017-03-02 Man Truck & Bus Ag Spiegelersatzsystem als Kamera-Monitor-System (KMS) eines Kraftfahrzeugs, insbesondere eines Nutzfahrzeugs
JP6344417B2 (ja) * 2016-03-18 2018-06-20 トヨタ自動車株式会社 車両用表示装置
TWI613106B (zh) * 2016-05-05 2018-02-01 威盛電子股份有限公司 車輛周圍影像處理方法及裝置
JP6788447B2 (ja) * 2016-09-12 2020-11-25 日立オートモティブシステムズ株式会社 映像出力システム
WO2018129189A1 (en) 2017-01-04 2018-07-12 Joyson Safety Systems Acquisition Llc Vehicle illumination systems and methods
WO2019173750A1 (en) 2018-03-08 2019-09-12 Joyson Safety Systems Acquisition Llc Vehicle illumination systems and methods
JP6980897B2 (ja) * 2018-03-12 2021-12-15 日立Astemo株式会社 車両制御装置
JP7440235B2 (ja) * 2019-09-26 2024-02-28 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、及び表示制御方法
US11615542B2 (en) * 2019-11-14 2023-03-28 Panasonic Avionics Corporation Automatic perspective correction for in-flight entertainment (IFE) monitors
US20230082856A1 (en) * 2021-09-14 2023-03-16 Daniel Lutes Rear View Camera Assembly
JP7500527B2 (ja) * 2021-09-24 2024-06-17 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
CN116916156B (zh) * 2023-08-16 2023-12-05 深圳金语科技有限公司 一种监视系统分视野显示方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09202180A (ja) * 1996-01-29 1997-08-05 Niles Parts Co Ltd 車載カメラ装置
JP2007221199A (ja) * 2006-02-14 2007-08-30 Auto Network Gijutsu Kenkyusho:Kk 車載カメラ表示装置及び画像処理装置
JP2009065483A (ja) 2007-09-06 2009-03-26 Denso Corp 駐車支援装置
JP2010109483A (ja) * 2008-10-28 2010-05-13 Honda Motor Co Ltd 車両周辺表示方法
JP2010178018A (ja) * 2009-01-29 2010-08-12 Honda Motor Co Ltd 車両の周辺を画像表示するための装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5796426A (en) * 1994-05-27 1998-08-18 Warp, Ltd. Wide-angle image dewarping method and apparatus
JP4195966B2 (ja) * 2002-03-05 2008-12-17 パナソニック株式会社 画像表示制御装置
JP3977368B2 (ja) * 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
FR2884338B1 (fr) * 2005-04-11 2007-10-19 Valeo Vision Sa Procede, dispositif et camera pour la detection d'objets a partir d'images numeriques
JP4793307B2 (ja) * 2007-04-03 2011-10-12 株式会社デンソー 車両周辺監視装置
DE102008034606A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
CN101425181B (zh) * 2008-12-15 2012-05-09 浙江大学 一种全景视觉辅助泊车系统的标定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09202180A (ja) * 1996-01-29 1997-08-05 Niles Parts Co Ltd 車載カメラ装置
JP2007221199A (ja) * 2006-02-14 2007-08-30 Auto Network Gijutsu Kenkyusho:Kk 車載カメラ表示装置及び画像処理装置
JP2009065483A (ja) 2007-09-06 2009-03-26 Denso Corp 駐車支援装置
JP2010109483A (ja) * 2008-10-28 2010-05-13 Honda Motor Co Ltd 車両周辺表示方法
JP2010178018A (ja) * 2009-01-29 2010-08-12 Honda Motor Co Ltd 車両の周辺を画像表示するための装置

Also Published As

Publication number Publication date
US9299260B2 (en) 2016-03-29
EP2763404A1 (en) 2014-08-06
CN103843326A (zh) 2014-06-04
US20140232538A1 (en) 2014-08-21
JPWO2013046407A1 (ja) 2015-03-26
EP2763404B1 (en) 2019-11-13
EP2763404A4 (en) 2015-12-30
JP5871006B2 (ja) 2016-03-01

Similar Documents

Publication Publication Date Title
JP5871006B2 (ja) 画像表示装置及び画像表示方法
JP5895941B2 (ja) 画像表示装置及び画像表示方法
US8896687B2 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
JP5022609B2 (ja) 撮像環境認識装置
JP5741173B2 (ja) 画像表示装置、及び、画像表示方法
WO2017159510A1 (ja) 駐車支援装置、車載カメラ、車両および駐車支援方法
JP6205640B2 (ja) 車両用警告装置
US20140198214A1 (en) Obstacle alert device
CN107004250B (zh) 图像生成装置及图像生成方法
JP5445719B2 (ja) 画像表示装置及び画像表示方法
JP6166188B2 (ja) 撮像システム、および撮像システムの制御方法
JP2000016181A (ja) カメラ付ドアミラー及び車両周辺認識システム
US20210339678A1 (en) Information presentation device, information presentation control method, and non-transitory computer-readable recording medium
JP4799236B2 (ja) 車載表示システム
JP2023160390A (ja) 標識情報表示システム及び、標識情報表示方法
JP5529097B2 (ja) 車両の運転支援装置
JP2013146029A (ja) 車両周辺監視装置
JP5747847B2 (ja) 車両周辺監視装置
JP7576235B2 (ja) 車両用表示制御システム
JP2008186132A (ja) 運転支援装置、方法およびプログラム
JP2009110065A (ja) 運転支援装置
JP2011113120A (ja) 車両用周辺監視装置
CN118306314A (zh) Svm俯视图像处理方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11873326

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013535752

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14347987

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011873326

Country of ref document: EP