[go: up one dir, main page]

WO2019091920A1 - Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule - Google Patents

Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule Download PDF

Info

Publication number
WO2019091920A1
WO2019091920A1 PCT/EP2018/080190 EP2018080190W WO2019091920A1 WO 2019091920 A1 WO2019091920 A1 WO 2019091920A1 EP 2018080190 W EP2018080190 W EP 2018080190W WO 2019091920 A1 WO2019091920 A1 WO 2019091920A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
virtual camera
image
touch screen
posture
Prior art date
Application number
PCT/EP2018/080190
Other languages
English (en)
Inventor
Stephanie AMBROISE
Original Assignee
Renault S.A.S
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault S.A.S filed Critical Renault S.A.S
Priority to EP18795667.7A priority Critical patent/EP3707679A1/fr
Publication of WO2019091920A1 publication Critical patent/WO2019091920A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present invention relates generally to the field of driving aids for motor vehicles.
  • It relates in particular to a method of displaying an image of the environment of a vehicle on a touch screen fitted to the vehicle.
  • each of the four image sensors being placed on one of the four sides of the vehicle, each of the four image sensors being able to acquire a real image of the environment of the vehicle,
  • a computing unit adapted to implement a display method as mentioned above.
  • this composite image seems to be acquired from a single virtual camera filming the motor vehicle from a given location located remote from the vehicle.
  • the location of this virtual camera can generally be chosen by the driver by displaying a representation of the motor vehicle and a representation of the virtual camera and inviting the driver to move the virtual camera around the vehicle by swiping the touch screen with his fingers.
  • the help device then composes the image of the vehicle environment from the selected location of the virtual camera.
  • the driver may need to change the location of the virtual camera while he is performing a maneuver.
  • the selection of the location of the virtual camera using this device is not practical, and may require too much attention from the driver, which impacts his safety.
  • the present invention proposes a method of displaying an image of the environment of a vehicle on a touch screen fitted to the vehicle, comprising steps of:
  • the invention provides a method for the user to easily choose a new posture of the virtual camera.
  • the choice is indeed simplified by the display of the graphic element to show the user which postures can be adopted by the virtual camera.
  • the user selects the new posture of the virtual camera by exerting a simple press on the graphic element the touch screen.
  • the selection of a new posture does not require much attention on the part of the user who can then focus on the road maneuvers he is performing.
  • a step is provided for constituting a representation of the vehicle as seen from the virtual camera in the new posture determined in step c), and in which, in step e), the virtual image is obtained by superimposing the representation of the vehicle on the environment,
  • the graphic element comprises a circle situated around the vehicle image and said posture parameter is an orientation angle of the virtual camera around the vehicle,
  • the graphic element makes it possible to select the angle of orientation of the virtual camera around the vehicle with a step of 1 degree
  • the graphic element comprises a segment situated vertically with respect to the image of the vehicle and said posture parameter is a vertical distance between the vehicle and the virtual camera,
  • the graphic element comprises a segment situated horizontally with respect to the image of the vehicle and the posture parameter is a horizontal distance between the vehicle and the virtual camera,
  • Steps c) to f) are repeated after each point support exerted by the user on the touch screen,
  • the invention also proposes a help system; driving a vehicle as defined in the introduction of which the computing unit is programmed to implement a method as defined above.
  • FIG. 1 is a diagrammatic section of a vehicle equipped with a driving assistance system according to the invention
  • FIG. 2a illustrates a virtual camera of the vehicle of FIG. 1
  • FIG. 2b illustrates a virtual image of the vehicle of FIG. 1 as seen by the virtual camera
  • FIG. 3a illustrates parameters of the virtual camera
  • FIG. 3b is a schematic view from above of the vehicle of FIG. 1 and of the virtual camera, on which are represented coordinates of the virtual camera,
  • FIG. 3c is a schematic side view of the vehicle of FIG. 1 and of the virtual camera, on which are represented other coordinates of the virtual camera,
  • FIG. 4a is a schematic perspective view of the vehicle of FIG. 1, on which is represented a first graphic element associated with a first posture parameter of the virtual camera,
  • FIG. 4b is a schematic perspective view of the vehicle of FIG. 1, on which is represented a second graphic element associated with a second posture parameter of the virtual camera,
  • FIG. 4c is a schematic perspective view of the vehicle of FIG. 1, on which is represented a third graphic element associated with a third posture parameter of the virtual camera,
  • FIG. 5 represents a diagram illustrating the implementation steps of a display method according to the invention.
  • FIG. 6 represents a perspective virtual image obtained according to the display method illustrated in FIG. 5.
  • FIG. 1 diagrammatically shows an automobile vehicle 1 equipped with a driving assistance system 3.
  • this driver assistance system 3 comprises image sensors 5, a touch screen 7 and a calculation unit 9.
  • the image sensors 5 are able to acquire a plurality of real images of an environment outside the vehicle 1.
  • the driver assistance system 3 comprises four image sensors 5.
  • Each of the image sensors 5 is placed on one of the four sides of the vehicle 1 (only two of the sensors 5 are visible in FIG. ).
  • a first image sensor (not shown) is placed at the front of the vehicle 1, for example below the vehicle logo 1.
  • the first image sensor captures an area located at the front of the vehicle 1.
  • a second image sensor (not shown) is placed at the rear of the vehicle, for example above the license plate.
  • the second image sensor captures an area at the rear of the vehicle 1.
  • a third image sensor 5 is placed on a first lateral side, for example the right side of the vehicle, for example under the right mirror.
  • the third image sensor captures a first zone located laterally with respect to the vehicle 1, here to the right of the vehicle 1.
  • a fourth image sensor 5 is placed on a second lateral side, for example the left side of the vehicle, for example under the left rearview mirror.
  • the fourth image sensor 5 captures a second zone situated laterally with respect to the vehicle 1, here to the left of the vehicle 1.
  • These image sensors 5 are here cameras. These cameras can be analog or digital. Here, digital cameras are preferably used because they make it possible to capture images of higher resolution than analog cameras, which subsequently makes it possible to obtain better results by applying the method of the invention.
  • the cameras have a large opening angle, for example close to or greater than 180 °. These cameras are equipped with lenses known as "fish-eye" in English.
  • a 'this stage can be defined with reference to figure 3b a vehicle reference frame (0, Xv, Yv, Zv) attached to the vehicle 1.
  • the marker is considered an orthonormal coordinate system whose origin O is at the center of front side of the vehicle 1, the longitudinal axis (OXv) of which is oriented toward the rear of the vehicle 1, the transverse axis (OYv) of which is oriented towards the right of the vehicle and whose vertical axis (OZv) is oriented to the top.
  • center C of the vehicle 1 is also possible to define the center C of the vehicle 1 as the point situated halfway between the vehicle 1 in the longitudinal direction, in the transverse direction and in the vertical direction of the vehicle 1.
  • the calculation unit 9 of the vehicle 1 is able to receive the actual images acquired by the image sensors 5. It is furthermore programmed to compose a virtual image 13 of the environment of the vehicle 1 from the actual images acquired by the image sensors 5. Such a virtual image 13 is illustrated in FIG. 2b.
  • the computing unit 9 is programmed to compose a virtual image 13 of the environment of the vehicle 1 as seen by a virtual camera 1 1 located at a distance from the vehicle 1.
  • the virtual camera 11 is visible for example on Figure 2a.
  • the virtual camera 1 1 is located above the vehicle 1. It will be noted that the virtual camera 11 does not exist in the real world: it is only a concept making it easier to understand the invention, which consists in composing a virtual image 13 corresponding to an image real as it would be captured by an actual camera if this actual camera was placed in the position of the virtual camera 11.
  • FIG. 2b illustrates the virtual image 13 as seen by the virtual camera 11.
  • the virtual image 13 comprises a representation 15 of the vehicle 1, viewed from above, as well as the reconstituted environment 17 of the vehicle 1 seen under the same angle.
  • the optical axis Ao of the virtual camera 11 is chosen to pass through a fixed point of the vehicle 1, regardless of the position of the virtual camera 11.
  • the fixed point is for example the center C of the vehicle 1.
  • Figure 3a shows some parameters of the virtual camera 11.
  • the virtual camera 11 thus has a focal length f and a focal plane PF.
  • the focal plane PF has a width Cx and a height Cy.
  • the virtual camera further has a horizontal resolution Resh and a vertical resolution Resv.
  • the virtual camera 1 1 has a posture, that is to say a position and an orientation, which is marked by coordinates expressed in the vehicle reference (0, Xv, Yv, Zv). Coordinates of the virtual camera 1 1 comprise a first coordinate X Cam defined along the axis (OXv), a second coordinate Ycam defined along the axis (OYv), and a third coordinate -icam defined along the axis (OZv).
  • a fourth coordinate G is represented by Figure 3b.
  • the fourth coordinate ⁇ corresponds to an orientation angle ⁇ between the longitudinal axis (OXv) and the projected optical axis A 0 in the plane
  • a fifth coordinate ⁇ is represented by FIG. 3c.
  • the fifth coordinate ⁇ corresponds to an angle of inclination ⁇ formed by the projected optical axis A 0 in the plane and the axis
  • the calculation unit 9 is able to calculate the coordinates
  • a first, a second and a third posture parameter can be defined here, which the user can easily vary by pressing "graphic elements" displayed on the touch screen 7 in order to modify the posture of the virtual camera 1 1 in relation to the vehicle 1.
  • the first posture parameter is the orientation angle ⁇ of the virtual camera 11.
  • a first graphical element 19, shown in FIG. 4a, is associated with this first posture parameter.
  • This first graphic element 19 comprises a first circle C1 of radius R1 centered on the center C.
  • the first circle C1 is located in the plane (XvYv).
  • the value of the first radius R1 is determined so that the first circle C1 encircles the representation 15 of the vehicle 1.
  • the first radius R1 is for example equal to 2.5 m.
  • the first graphic element 19 is stored in a memory unit, from which it can be retrieved by the computing unit 9 which is able to transmit it to the touch screen 7.
  • the second posture parameter is the third coordinate Zcam which is reminded that it represents a vertical distance between the vehicle 1 and the virtual camera 11.
  • This third Zcam coordinate has a range of values that is preset and is stored in the memory unit.
  • the value range is for example a function of the resolution offered by the image sensors 5 and by the screen Touch 7. Indeed, if the virtual camera 11 is placed too high, the objects present on the virtual image 13 will be too small to be recognizable or even visible by the user. Such a virtual image 13 could therefore not help the driver to maneuver the vehicle 1.
  • the third coordinate Zcam is for example between 1, 7 m and 3 m and can vary in steps of 5 cm.
  • the third coordinate Zcam is associated with the angle of inclination ⁇ of the virtual camera 1 1, since the optical axis A 0 is defined as passing through the center C of the vehicle 1.
  • a second graphic element 21, illustrated by FIG. 4b, is associated with this second posture parameter.
  • This second graphic element 21 is here formed by a vertical segment.
  • the second graphical element 21 is stored in the memory unit, since which it can be recovered by the computing unit 9 which is able to transmit it to the touch screen 7.
  • the third posture parameter is the second radius R2 of the second circle C2 on which the virtual camera 1 1 is located.
  • the second radius R2 represents a horizontal distance between the virtual camera 11 and the vehicle 1.
  • the second radius R2 is within a predefined range of values and stored in the memory unit.
  • the second radius R2 is for example between 3.5 m and 6 m, it can be varied in steps of 5 cm.
  • a third graphic element 23 is associated with this third posture parameter.
  • This third graphic element 23 is here formed by a horizontal segment. By pressing this third graphic element 23, the user will be able to vary the second radius R2.
  • the third graphic element 23 is stored in the memory unit, from which it can be recovered by the computing unit 9 which is able to transmit it to the touch screen 7.
  • the first, second and third posture parameters 19, 21, 23 allow the calculation unit 9 to calculate coordinates (Xcam, Ycam, Zcam, ⁇ , ⁇ ) of the virtual camera 11 in the vehicle coordinate system (0, Xv , Yv, Zv).
  • the virtual camera 11 is able to be moved by the user around the representation of the vehicle 1, which causes a change in his
  • the computing unit 9 is able to recover or generate a representation of the vehicle 1 as seen by the virtual camera 11.
  • a three-dimensional model of the vehicle could be stored in a memory unit of the driver assistance system 3.
  • a plurality of representations of the vehicle 1 is stored in a memory unit of the driver assistance system 3.
  • the plurality of representations 15 is for example made from a simulation tool of the vehicle 1. For example 360 images are captured in perspective around the vehicle 1, in steps of 1 degree and remaining at a first value of the second radius R2 . Then, this operation is repeated by moving to a second value of the second radius R2.
  • the second radius R2 is for example varied in millimeters.
  • images of the vehicle 1 are captured by varying the third coordinate Zcam, and thus the angle of inclination ⁇ of the virtual camera 11.
  • Each captured image is named with its orientation angle value ⁇ , its second radius value R2 and its angle of inclination ⁇ value, so the calculation unit 9 can easily retrieve the appropriate representation 15 for each posture of the virtual camera January 1.
  • the calculation unit 9 is furthermore capable of superimposing the appropriate representation of the vehicle 1 on the reconstituted image of the environment 17 to form the virtual image 13 as seen by the virtual camera 11.
  • the calculation unit 9 is also able to transmit the virtual image 13 to the touch screen 7.
  • the touch screen 7 is placed in the passenger compartment of the vehicle 1, for example on the dashboard of the latter.
  • the touch screen 7 is able to display the virtual image 13 as well as the graphic elements 19, 21, 23 transmitted by the calculation unit 9.
  • the touch screen 7 is able to display images in colour.
  • the touch screen 7 is furthermore able to acquire the position of a selected point P by the occasional support of a user on said touch screen 7.
  • a screen mark (0e, Ye, Ze) is associated with the touch screen 7.
  • the origin 0e of the screen mark (Oe, Ye, Ze) is for example located on a corner of the touch screen 7, for example the lower left corner.
  • the axis (OeYe) extends along a horizontal axis of the touch screen 7.
  • the axis (OeZe) extends along a vertical axis of the touch screen 7.
  • the point P on which the user pressed has two-dimensional coordinates (yp, ZP). These two-dimensional coordinates (yp, ZP) are expressed in pixels.
  • the touch screen 7 is able to determine the two-dimensional coordinates (yp, ZP) of the selected point P (for example by means of a computer associated with the touch screen 7) and to transmit them to the calculation unit 9.
  • the operation a touch screen 7 is well known to those skilled in the art and will not be described in detail.
  • FIG. 5 a method for displaying an image of the environment of a vehicle 1 on a touch screen 7 fitted to the vehicle 1 can be described in greater detail.
  • This display method comprises a step a) of display on the touch screen 7 of one of the representations of the vehicle 1 and of at least one graphic element 19, 21, 23 among the first, second and third graphic elements 19, 21, 23 previously described.
  • the vehicle 1 can be represented as seen from an initial position PosO of coordinates (Xcamo, Ycamo, Zcamo, ⁇ , ⁇ ) predefined of the initial virtual camera 1 1 in the vehicle reference (0, Xv, Yv , Zv).
  • the touch screen 7 displays for example the first graphic element 19 associated with the first posture parameter (the orientation angle ⁇ ).
  • the choice by the user of the posture of the virtual camera 1 1, and therefore the virtual view of the environment is facilitated. Indeed, the user quickly understands at which locations he can place the virtual camera 1 1. The choice of the location of the virtual camera 1 1 does not require great attention since a single point support with the finger is enough, and user can focus on the maneuvers he is doing.
  • the touch screen 7 may further display instructions to the user. These instructions can explain to him how to select the location of the virtual camera 11. According to the invention, the selection is made by a one-off support of the user on the touch screen 7, more precisely on one of the graphical elements displayed. .
  • the touch screen 7 acquires the position of a first point P1 of the first graphic element 19 selected by a user press exerted on the touch screen 7.
  • the position of the first selected point P1 is expressed by a set of coordinates in pixels in the screen frame (0,
  • the coordinates of the first selected point P1 are the coordinates of the first selected point P1
  • the calculation unit 9 calculates the value of the first posture parameter, here the orientation angle ⁇ of the virtual camera 11 around the vehicle 1, as a function of the coordinates (yp). i, ZPI) of the first selected point P1 in order to deduce a new posture Pos1 of the virtual camera 1 1.
  • the orientation angle ⁇ is determined by means of the formula:
  • (Xc, Yc, Zc) are the coordinates of the center C of the vehicle 1 defined in the vehicle mark and that R1 is the radius of the first circle C1 (first graphical element 19).
  • the coordinates (Xc, Yc, Zc), the value of R1 as well as other variables used in the calculations which will be described later, such as and R2, are stored in the memory unit.
  • the coordinates (XVPI, yvpi, ZVPI) are defined as the three-dimensional coordinates of the first selected point P1 in the vehicle frame (0, Xv, Yv, Zv).
  • the only unknown variable of the equation of the angle of orientation ⁇ is therefore the coordinate XVP-I.
  • the coordinate is determined by the formula:
  • Xcamo and Ycamo are the initial coordinates, and therefore known, of the camera in the vehicle reference.
  • Zc is also known.
  • R3 is determined using the formula:
  • the coordinates (xpn, ypn,) are the coordinates of the first selected point P1 projected onto a first focal plane PF1 of the virtual camera 1 1, and expressed in the vehicle coordinate system (0, Xv, Yv, Zv) (the first focal plane PF1 being associated with the first posture of the virtual camera 1 1).
  • the calculation unit 9 can use it to calculate the other coordinates of the first posture of the virtual camera 11
  • a step d) the image sensors 5 acquire real images of the environment of the vehicle 1.
  • the step d) can take place simultaneously with the preceding steps a), b), c), or before those -this.
  • the actual images are transmitted to the computing unit 9 which composes a virtual image of the environment of the vehicle 1 as seen from the virtual camera 1 1 during a step e).
  • the calculation unit 9 selects the real images to be used according to the posture of the virtual camera 1 1. For example, when the virtual camera is placed above the vehicle 1 with an optical axis parallel to the axis (OZv) vehicle mark the virtual image 13 displayed is that represented by FIG.
  • the computing unit 9 can for example compose the virtual image 13 from the real images of only one, two or three image sensors 5.
  • This step of composing the image does not form the heart of the invention and is already well known to those skilled in the art, it will not be described in more detail here.
  • the display method further provides a step of reading a representation of the vehicle 1 as seen from the new posture Pos 1 of the virtual camera 11 deduced in step c).
  • the representation 15 of the vehicle 1 is for example selected from the plurality of representations 15 stored in the memory unit.
  • the virtual image 13 of the environment 17 and the representation 15 of the vehicle 1 are displayed on the touch screen 7 during a step f).
  • the user can easily choose the location of the virtual camera 11, and accesses easily understandable information enabling him to better visualize the environment 17 of the vehicle 1.
  • the calculation unit 9 controls the display of the second graphic element 21 in order to allow the user to adjust the height of the virtual camera 11, before displaying the third graphic element 23 in order to adjust the horizontal distance between the virtual camera 11 and the vehicle 1.
  • the calculation unit 9 displays the second graphic element 21 associated with the second posture parameter, that is to say the vertical segment during step a).
  • the vertical segment is for example displayed along a vertical axis passing through the center C.
  • step b) the computing unit 9 acquires the position of a second selected point P2 by pressing on the touch screen at the vertical segment.
  • This second selected point P2 makes it possible to calculate, during step c), on the one hand, a second value of the coordinate Zc a m 2 of the second posture Pos 2 of the virtual camera 1 1 and, on the other hand, a second value of its angle inclination 92.
  • Coordinates are the coordinates of the second selected point P2 projected on a second focal plane PF2 of the virtual camera 11, and expressed in the vehicle coordinate system (the second focal plane
  • yp2 and ZP2 are the coordinates of the second selected point P2 and therefore known.
  • the orientation angle ⁇ around the vehicle 11 has the first value ⁇ 1 previously calculated.
  • the virtual camera 11 is therefore positioned in
  • Steps d) and e) are then repeated so as to display an image of the environment 17 and a representation of the vehicle 1, seen from an altitude corresponding to the wish of the user.
  • calculation unit 9 controls the display of the third graphic element 23 on the touch screen 7 during a new step a).
  • the horizontal segment of the third graphic element 23 is for example arranged along an axis passing through the center C and at an angle equal to the orientation angle ⁇ + ⁇ / 2 with respect to the longitudinal axis (OXv) .
  • step b) the computing unit 9 acquires the position of the third selected point P3 by pressing the horizontal segment. Coordinates of the third selected point P3 on the touch screen 7 are transmitted to the calculation unit 9.
  • This third selected point P3 makes it possible to calculate, during step c), a new horizontal distance 2f to be applied between the vehicle 1 and the virtual camera 1 1.
  • the calculation unit 9 uses the values of orientation angle ⁇ 1 , and angle of inclination previously calculated.
  • X vp is the coordinate of the point of intersection of the circle of radius R1 and the horizontal segment of the third graphic element 23.
  • the coordinate x vp is obtained with the formula:
  • Xcamo and Ycamo are the initial coordinates of the virtual camera 1 1 in the vehicle mark.
  • Zc is also known.
  • R3 is determined using the formula:
  • the coordinates are the coordinates of the third selected point P3 projected on a third focal plane PF3 of the virtual camera 11, and expressed in the vehicle reference (0, Xv, Yv, Zv) (the third focal plane PF3 being associated with the third posture of the virtual camera 11).
  • the Thales theorem is applied as follows:
  • the orientation angle ⁇ around the vehicle 11 has the first value ⁇ ⁇ previously calculated
  • the inclination angle ⁇ has the value 92 previously calculated.
  • the coordinates of the virtual camera 1 1 are:
  • Steps d) and e) are then repeated so as to display an image of the environment 17 and a representation of the vehicle 1, seen from a distance to the vehicle 1 corresponding to the wish of the user.
  • the virtual image 13 comprising the environment 17 of the vehicle 1 as well as the representation 15 of the vehicle 1 is thus composed and displayed after each deduction of the new posture of the virtual camera 11.
  • the virtual image 13 could be composed and displayed only after the driver has selected the three selected points P1, P2, P3.
  • the virtual image 13 could be composed and displayed only after the driver has selected the three selected points P1, P2, P3.
  • the calculation unit 9 could control the simultaneous display of the first graphic element 19, second graphic element 21 and third graphic element 23 previously described, during the display step a).
  • the user could then choose with precision the new posture of the virtual camera 11 by choosing a point on any one of the first, second and third graphic elements 19, 21, 23.
  • the acquisition of the first, second and third selected points P1, P2, P3 could be performed in any order. Therefore, the user could select in any order the height of the virtual camera 1 1, the rotation angle ⁇ of the virtual camera 11 and the horizontal distance R2 between the virtual camera 11 and the vehicle 1.
  • the first graphic element 19, the second graphic element 21, and the third graphic element 23 each have a different color.
  • the computing unit 9 can implement an automatic method for determining the posture of the virtual camera 11, when the conditions require it.
  • the computing unit 9 is programmed to automatically modify the posture of the virtual camera 11 when an obstacle is detected near the vehicle 1.
  • the calculation unit 9 determines the trajectory of the vehicle 1 during a prediction step.
  • the calculation unit 9 determines this trajectory as a function of at least the angle of the steering wheel and the gear ratio engaged (forward or reverse).
  • the computing unit 9 searches for an obstacle located near the vehicle 1. More precisely, the computing unit 9 determines if an obstacle is on the previously predicted trajectory.
  • the computing unit 9 uses remote sensors (radar and / or sonar and / or lidar) located around the vehicle 1.
  • the vehicle 1 is equipped with six remote sensors at the front and six remote sensors at the rear. Remote sensors not only detect the presence of an obstacle, but also assess the distance between the obstacle and the vehicle 1.
  • the virtual camera is automatically positioned along the longitudinal axis (OXv) of the vehicle 1 towards the rear of the vehicle 1 , and directed towards the front of the vehicle 1.
  • the virtual camera 1 1 is then placed at an orientation angle ⁇ equal to ⁇ radians.
  • the computing unit 9 could choose the orientation angle ⁇ from a plurality of rotation angles ⁇ stored in the memory unit.
  • the computing unit 9 determines the height of the obstacle.
  • the angle of inclination ⁇ of the virtual camera 11 is then calculated so that the optical axis of the virtual camera 11 passes through the center of the obstacle.
  • the horizontal distance R2 between the vehicle 1 and the virtual camera 1 1 is calculated as a function of the distance detected between the obstacle and the vehicle 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instrument Panels (AREA)

Abstract

L'invention concerne un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule, comprenant des étapes de : a) affichage sur ledit écran tactile : - d'une image du véhicule tel qu'il serait vu depuis une caméra virtuelle placée dans une posture initiale, - d'au moins un élément graphique associé à un paramètre de posture de la caméra virtuelle, b) acquisition de la position d'un point dudit élément sélectionné par appui d'un usager sur l'écran tactile, c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point, et déduction d'une nouvelle posture de la caméra virtuelle, d) acquisition d'images réelles de l'environnement par des capteurs d'images, e) composition, à partir des images réelles, d'une image virtuelle de l'environnement du véhicule tel que vu depuis la caméra virtuelle placée dans la nouvelle posture, f) affichage sur l'écran tactile de l'image virtuelle.

Description

PROCEDE D'AFFICHAGE D'UNE IMAGE DE L'ENVIRONNEMENT D'UN VEHICULE SUR UN ECRAN TACTILE EQUIPANT LE VEHICULE
DOMAINE TECHNIQUE AUQUEL SE RAPPORTE L'INVENTION La présente invention concerne de manière générale le domaine des aides à la conduite de véhicules automobiles.
Elle concerne en particulier un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule.
Elle concerne également un système d'aide comprenant :
- quatre capteurs d'images, chacun des quatre capteurs d'images étant placé sur un des quatre côté du véhicule, chacun des quatre capteurs d'images étant apte à acquérir une image réelle de l'environnement du véhicule,
- un écran tactile, et
- une unité de calcul adaptée à mettre en œuvre un procédé d'affichage tel que précité.
ARRIERE-PLAN TECHNOLOGIQUE
Il est connu de composer une image d'un véhicule automobile circulant dans un environnement à partir d'images capturées par plusieurs caméras situées sur les quatre côtés du véhicule. Cette image composée est affichée au conducteur sur un écran d'affichage du véhicule automobile pour lui permettre de détecter des obstacles situés dans les angles morts du véhicule automobile.
Pour le conducteur, cette image composée semble être acquise depuis une unique caméra virtuelle filmant le véhicule automobile depuis un emplacement donné situé à distance du véhicule.
Quand l'écran est tactile, l'emplacement de cette caméra virtuelle peut généralement être choisi par le conducteur en affichant une représentation du véhicule automobile ainsi qu'une représentation de la caméra virtuelle et en invitant le conducteur à déplacer la caméra virtuelle autour du véhicule en balayant l'écran tactile avec ses doigts.
Le dispositif d'aide compose ensuite l'image de l'environnement du véhicule à partir de l'emplacement sélectionné de la caméra virtuelle.
Cependant, le conducteur peut avoir besoin de changer l'emplacement de la caméra virtuelle alors qu'il est en train d'effectuer une manœuvre. Or, la sélection de l'emplacement de la caméra virtuelle à l'aide de ce dispositif n'est pas pratique, et peut demander trop d'attention au conducteur, ce qui impacte sa sécurité.
OBJET DE L'INVENTION
Afin de remédier à l'inconvénient précité de l'état de la technique, la présente invention propose un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule, comprenant des étapes de :
a) affichage sur ledit écran tactile :
- d'une image du véhicule tel qu'il serait vu depuis une caméra virtuelle placée dans une posture initiale, et
- d'au moins un élément graphique associé un paramètre de posture de la caméra virtuelle,
b) acquisition de la position d'un point dudit élément sélectionné par appui d'un usager sur l'écran tactile,
c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point, et déduction d'une nouvelle posture de la caméra virtuelle, d) acquisition d'images réelle de l'environnement par une pluralité de capteurs d'images,
e) composition, à partir des images réelles acquises à l'étape d), d'une image virtuelle de l'environnement du véhicule tel qu'il serait vu depuis la caméra virtuelle placée dans la nouvelle posture déterminée à l'étape c), et
f) affichage sur l'écran tactile de l'image virtuelle.
Ainsi, l'invention propose un procédé permettant à l'usager de choisir facilement une nouvelle posture de la caméra virtuelle. Le choix est en effet simplifié par l'affichage de l'élément graphique permettant de montrer à l'usager quelles postures peuvent être adoptées par la caméra virtuelle. L'usager sélectionne ensuite la nouvelle posture de la caméra virtuelle en exerçant un simple appui sur l'élément graphique l'écran tactile. La sélection d'une nouvelle posture ne nécessite pas une grande attention de la part de l'usager qui peut alors se concentrer sur les manœuvres routières qu'il est en train d'effectuer.
D'autres caractéristiques non limitatives et avantageuses du procédé d'affichage conforme à l'invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :
- il est prévu une étape de constitution d'une représentation du véhicule tel qu'il serait vu depuis la caméra virtuelle dans la nouvelle posture déterminée à l'étape c), et dans lequel, à l'étape e), l'image virtuelle est obtenue en superposant la représentation du véhicule à l'environnement,
-l'élément graphique comprend un cercle situé autour de l'image du véhicule et ledit paramètre de posture est un angle d'orientation de la caméra virtuelle autour du véhicule,
- l'élément graphique permet de sélectionner l'angle d'orientation de la caméra virtuelle autour du véhicule avec un pas de 1 degré,
-l'élément graphique comprend un segment situé verticalement par rapport à l'image du véhicule et ledit paramètre de posture est une distance verticale entre le véhicule et la caméra virtuelle,
- l'élément graphique comprend un segment situé horizontalement par rapport à l'image du véhicule et le paramètre de posture est une distance horizontale entre le véhicule et la caméra virtuelle,
- les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l'usager sur l'écran tactile,
- la caméra virtuelle présente un axe optique, à l'étape c), la nouvelle posture de la caméra virtuelle est définie de telle sorte que ledit axe optique passe par un point prédéterminé du véhicule, L'invention propose également un système d'aide à la conduite d'un véhicule tel que défini en introduction dont l'unité de calcul est programmée pour mettre en œuvre un procédé tel que défini ci-dessus.
DESCRIPTION DÉTAILLÉE D'UN EXEMPLE DE RÉALISATION La description qui va suivre en regard des dessins annexés, donnés à titre d'exemples non limitatifs, fera bien comprendre en quoi consiste l'invention et comment elle peut être réalisée.
Sur les dessins annexés :
- la figure 1 est une coupe schématique d'un véhicule équipé d'un système d'aide à la conduite selon l'invention,
- la figure 2a illustre une caméra virtuelle du véhicule de la figure 1 , - la figure 2b illustre une image virtuelle du véhicule de la figure 1 tel que vu par la caméra virtuelle,
- la figure 3a illustre des paramètres de la caméra virtuelle,
- la figure 3b est une vue schématique de dessus du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentées des coordonnées de la caméra virtuelle,
- la figure 3c est une vue schématique de côté du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentés d'autres coordonnées de la caméra virtuelle,
- la figure 4a est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un premier élément graphique associé à un premier paramètre de posture de la caméra virtuelle,
- la figure 4b est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un deuxième élément graphique associé à un deuxième paramètre de posture de la caméra virtuelle,
- la figure 4c est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un troisième élément graphique associé à un troisième paramètre de posture de la caméra virtuelle,
- la figure 5 représente un diagramme illustrant les étapes de mise en œuvre d'un procédé d'affichage selon l'invention, et
- la figure 6 représente une image virtuelle en perspective obtenue selon le procédé d'affichage illustré sur la figure 5.
Sur la figure 1 , on a représenté schématiquement un véhicule 1 automobile équipé d'un système d'aide à la conduite 3.
Comme cela sera bien décrit dans la suite de cet exposé, ce système d'aide à la conduite 3 comprend des capteurs d'images 5, un écran tactile 7 et une unité de calcul 9.
Comme le montre la figure 1 , les capteurs d'images 5 sont aptes à acquérir une pluralité d'images réelles d'un environnement extérieur au véhicule 1.
De manière préférentielle, le système d'aide à la conduite 3 comprend quatre capteurs d'images 5. Chacun des capteurs d'images 5 est placé sur un des quatre côtés du véhicule 1 (seuls deux des capteurs 5 sont visibles sur la figure 1).
Un premier capteur d'images (non représenté) est placé à l'avant du véhicule 1 , par exemple en dessous du logo du véhicule 1. Le premier capteur d'images capture une zone située à l'avant du véhicule 1.
Un deuxième capteur d'images (non représenté) est placé à l'arrière du véhicule, par exemple au dessus de la plaque d'immatriculation. Le deuxième capteur d'images capture une zone située à l'arrière du véhicule 1.
Un troisième capteur d'images 5 est placé sur un premier côté latéral, par exemple le côté droit du véhicule, par exemple sous le rétroviseur droit. Le troisième capteur d'images capture une première zone située latéralement par rapport au véhicule 1 , ici à droite du véhicule 1.
Un quatrième capteur d'images 5 est placé sur un deuxième côté latéral, par exemple le côté gauche du véhicule, par exemple sous le rétroviseur gauche. Le quatrième capteur d'images 5 capture une deuxième zone située latéralement par rapport au véhicule 1 , ici à gauche du véhicule 1.
Ces capteurs d'images 5 sont ici des caméras. Ces caméras peuvent être de type analogique ou digital. Ici, on utilise de préférence des caméras digitales car elles permettent de capturer des images de plus grande résolution que les caméras analogiques, ce qui permet par la suite d'obtenir de meilleurs résultats en appliquant le procédé de l'invention.
Les caméras présentent un grand angle d'ouverture, par exemple proche de ou supérieur à 180°. Ces caméras sont équipées d'objectifs connus sous le nom de « fish-eye » en anglais.
A' ce stade, on peut définir en référence à la figure 3b un repère véhicule (0, Xv, Yv, Zv) attaché au véhicule 1. Ici, le repère considéré est un repère orthonormé dont l'origine O est située au centre du côté avant du véhicule 1 , dont l'axe longitudinal (OXv) est orienté vers l'arrière du véhicule 1 , dont l'axe transversal (OYv) est orienté vers la droite du véhicule et dont l'axe vertical (OZv) est orienté vers le haut.
On peut définir en outre le centre C du véhicule 1 comme le point situé à mi-distance du véhicule 1 dans le sens longitudinal, dans le sens transversal et dans le sens vertical du véhicule 1.
L'unité de calcul 9 du véhicule 1 est apte à recevoir les images réelles acquises par les capteurs d'images 5. Elle est en outre programmée pour composer une image virtuelle 13 de l'environnement du véhicule 1 à partir des images réelles acquises par les capteurs d'images 5. Une telle image virtuelle 13 est illustrée par la figure 2b.
Plus précisément, l'unité de calcul 9 est programmée pour composer une image virtuelle 13 de l'environnement du véhicule 1 tel que vu par une caméra virtuelle 1 1 se trouvant à distance du véhicule 1. La caméra virtuelle 11 est visible par exemple sur la figure 2a.
Sur la figure 2a, la caméra virtuelle 1 1 est située au dessus du véhicule 1. On notera bien que la caméra virtuelle 11 n'existe pas dans le monde réel : il s'agit seulement d'un concept permettant de faciliter la compréhension de l'invention, laquelle consiste à composer une image virtuelle 13 correspondant à une image réelle telle qu'elle serait capturée par une caméra réelle si cette caméra réelle était placée dans la position de la caméra virtuelle 11.
La figure 2b illustre l'image virtuelle 13 telle que vue par la caméra virtuelle 11. L'image virtuelle 13 comprend une représentation 15 du véhicule 1 , ici vu du dessus, ainsi que l'environnement reconstitué 17 du véhicule 1 vu sous le même angle.
On définit par rapport à la caméra virtuelle 1 1 un axe optique A0. L'axe optique Ao de la caméra virtuelle 11 est choisi pour passer par un point fixe du véhicule 1 , quelle que soit la position de la caméra virtuelle 11. Le point fixe est par exemple le centre C du véhicule 1.
La figure 3a représente certains paramètres de la caméra virtuelle 11. La caméra virtuelle 11 présente ainsi une distance focale f et un plan focal PF. Le plan focal PF présente une largeur Cx et une hauteur Cy. La caméra virtuelle présente en outre une résolution horizontale Resh et une résolution verticale Resv.
Comme le montre la figure 3b, la caméra virtuelle 1 1 présente une posture, c'est-à-dire une position et une orientation, qui est repérée par des coordonnées
Figure imgf000008_0001
exprimées dans le repère véhicule (0, Xv, Yv, Zv). Les coordonnées
Figure imgf000008_0002
de la caméra virtuelle 1 1 comprennent une première coordonnée Xcam définie selon l'axe (OXv), une deuxième coordonnée Ycam définie selon l'axe (OYv), et une troisième coordonnée -icam définie selon l'axe (OZv).
Une quatrième coordonnée G est représentée par la figure 3b. La quatrième coordonnée θ correspond à un angle d'orientation Θ entre l'axe longitudinal (OXv) et le projeté de l'axe optique A0 dans le plan
Figure imgf000008_0004
Une cinquième coordonnée φ est représentée par la figure 3c. La cinquième coordonnée φ correspond à un angle d'inclinaison φ formé par le projeté de l'axe optique A0 dans le plan
Figure imgf000008_0005
et l'axe
Figure imgf000008_0006
L'unité de calcul 9 est apte à calculer les coordonnées
Figure imgf000008_0003
θ, φ) en fonction d'une commande de l'usager, laquelle commande est formulée par un appui d'un doigt de l'usager sur l'écran tactile 7.
Parmi ces cinq coordonnées, trois d'entre elles sont qualifiées de « paramètres de posture » en ce sens qu'elles permettent à l'usager de faire varier la position et l'orientation de la caméra virtuelle 1 1. L'usager pourra donc jouer sur trois degrés de liberté de la caméra virtuelle 11. Les autres degrés de liberté ne seront pas modifiables directement par l'usager, ce qui permettra notamment de s'assurer que la caméra virtuelle 11 soit toujours dirigée vers le véhicule 1.
On peut définir ici un premier, un deuxième et un troisième paramètre de posture, que l'usager pourra facilement faire varier en appuyant sur des « éléments graphiques » affichés sur l'écran tactile 7 afin de modifier la posture de la caméra virtuelle 1 1 par rapport au véhicule 1.
Le premier paramètre de posture est l'angle d'orientation Θ de la caméra virtuelle 11.
Un premier élément graphique 19, représenté sur la figure 4a, est associé à ce premier paramètre de posture. Ce premier élément graphique 19 comprend un premier cercle C1 de rayon R1 centré sur le centre C. Le premier cercle C1 est situé dans le plan (XvYv). En appuyant sur ce premier élément graphique 19, l'usager va donc pouvoir faire varier l'angle d'orientation Θ. On peut donc considérer que le premier élément graphique 19 représente les valeurs que peut prendre l'angle d'orientation Θ. La valeur de l'angle d'orientation Θ est comprise entre 0 et 360° et peut être variée par pas de 1 °.
La valeur du premier rayon R1 est déterminée de telle sorte que le premier cercle C1 encercle la représentation 15 du véhicule 1. Le premier rayon R1 est par exemple égal à 2,5 m.
Le premier élément graphique 19 est mémorisé dans une unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.
Le deuxième paramètre de posture est la troisième coordonnée Zcam dont on rappelle qu'elle représente une distance verticale entre le véhicule 1 et la caméra virtuelle 11.
Cette troisième coordonnée Zcam présente une plage de valeurs qui est prédéfinie et est mémorisée dans l'unité de mémoire. La plage de valeur est par exemple fonction de la résolution offerte par les capteurs d'image 5 et par l'écran tactile 7. En effet, si la caméra virtuelle 11 est placée trop haut, les objets présents sur l'image virtuelle 13 seront trop petits pour être reconnaissables ou même visibles par l'usager. Une telle image virtuelle 13 ne pourrait donc pas aider le conducteur à manoeuvrer le véhicule 1.
La troisième coordonnée Zcam est par exemple comprise entre 1 ,7 m et 3 m et peut varier par pas de 5 cm.
On notera ici que la troisième coordonnée Zcam est associée à l'angle d'inclinaison φ de la caméra virtuelle 1 1 , puisque l'axe optique A0 est défini comme passant par le centre C du véhicule 1.
Un deuxième élément graphique 21, illustré par la figure 4b, est associé à ce deuxième paramètre de posture. Ce deuxième élément graphique 21 est ici formé par un segment vertical. En appuyant sur ce deuxième élément graphique 21 , l'usager va donc pouvoir faire varier la troisième coordonnée Zcam et l'angle d'inclinaison φ de la caméra virtuelle 11. Le deuxième élément graphique 21 est mémorisé dans l'unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.
Comme le montre la figure 4c, le troisième paramètre de posture est le deuxième rayon R2 du deuxième cercle C2 sur lequel est située la caméra virtuelle 1 1. Le deuxième rayon R2 représente une distance horizontale entre la caméra virtuelle 11 et le véhicule 1.
Pour les raisons expliquées précédemment, le deuxième rayon R2 est compris dans une plage de valeurs prédéfinie et mémorisée dans l'unité de mémoire. Le deuxième rayon R2 est par exemple compris entre 3,5 m et 6 m, il peut être varié par pas de 5 cm.
Un troisième élément graphique 23 est associé à ce troisième paramètre de posture. Ce troisième élément graphique 23 est ici formé par un segment horizontal. En appuyant sur ce troisième élément graphique 23, l'usager va donc pouvoir faire varier le deuxième rayon R2. Le troisième élément graphique 23 est mémorisé dans l'unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.
Les premier, deuxième et troisième paramètres de posture 19, 21 , 23 permettent à l'unité de calcul 9 de calculer des coordonnées (Xcam, Ycam, Zcam, Θ, φ) de la caméra virtuelle 11 dans le repère véhicule (0, Xv, Yv, Zv). La caméra virtuelle 11 est apte à être déplacée par l'usager autour de la représentation 15 du véhicule 1 , ce qui entraîne un changement dans ses
Coordonnées (Xcam, Ycam, Zcam, Θ, (p).
En plus de l'image de l'environnement reconstitué 17, l'unité de calcul 9 est apte à récupérer ou générer une représentation 15 du véhicule 1 telle que vu par la caméra virtuelle 11.
Pour cela, un modèle tridimensionnel du véhicule pourrait être mémorisé dans une unité de mémoire du système d'aide à la conduite 3.
Mais de manière préférentielle, une pluralité de représentations 15 du véhicule 1 est mémorisée dans une unité de mémoire du système d'aide à la conduite 3.
La pluralité de représentations 15 est par exemple réalisée à partir d'un outil de simulation du véhicule 1. On capture par exemple 360 images en perspective autour du véhicule 1 , par pas de 1 degré et en restant à une première valeur du deuxième rayon R2. Puis, on répète cette opération en se plaçant à une deuxième valeur du deuxième rayon R2. Le deuxième rayon R2 est par exemple varié en millimètre.
De la même façon, on capture des images du véhicule 1 en faisant varier la troisième coordonnée Zcam, et donc l'angle d'inclinaison φ de la caméra virtuelle 11. Chaque image capturée est nommée avec sa valeur d'angle d'orientation Θ, sa valeur de deuxième rayon R2 et sa valeur d'angle d'inclinaison φ, ainsi l'unité de calcul 9 peut-elle facilement récupérer la représentation 15 adéquate pour chaque posture de la caméra virtuelle 1 1.
L'unité de calcul 9 est en outre capable de superposer la représentation 15 appropriée du véhicule 1 à l'image reconstituée de l'environnement 17 pour former l'image virtuelle 13 telle que vue par la caméra virtuelle 11.
L'unité de calcul 9 est de plus apte à transmettre l'image virtuelle 13 à l'écran tactile 7.
L'écran tactile 7 est placé dans l'habitacle du véhicule 1 , par exemple sur la planche de bord de ce dernier.
L'écran tactile 7 est apte à afficher l'image virtuelle 13 ainsi que les éléments graphiques 19, 21 , 23 transmis par l'unité de calcul 9.
De manière préférentielle, l'écran tactile 7 est apte à afficher des images en couleur.
L'écran tactile 7 est en outre apte à acquérir la position d'un point P sélectionné par appui ponctuel d'un usager sur ledit écran tactile 7.
Comme le montre la figure 1 , un repère écran (0e, Ye, Ze) est associé à l'écran tactile 7. L'origine 0e du repère écran (Oe, Ye, Ze) est par exemple située sur un coin de l'écran tactile 7, par exemple le coin inférieur gauche. L'axe (OeYe) s'étend le long d'un axe horizontal de l'écran tactile 7. L'axe (OeZe) s'étend le long d'un axe vertical de l'écran tactile 7.
Le point P sur lequel l'usager a appuyé présente des coordonnées bidimensionnelles (yp, ZP). Ces coordonnées bidimensionnelles (yp, ZP) sont exprimées en pixels.
L'écran tactile 7 est apte à déterminer les coordonnées bidimensionnelles (yp, ZP) du point P sélectionnées (par exemple grâce à un calculateur associé à l'écran tactile 7) et à les transmettre à l'unité de calcul 9. Le fonctionnement d'un écran tactile 7 est bien connu de l'homme du métier et ne sera pas décrit en détail.
En se rapportant à présent à la figure 5, on peut décrire plus en détails un procédé d'affichage d'une image de l'environnement d'un véhicule 1 sur un écran tactile 7 équipant le véhicule 1 .
Ce procédé d'affichage comprend une étape a) d'affichage sur l'écran tactile 7 d'une des représentations 15 du véhicule 1 et d'au moins un élément graphique 19, 21 , 23 parmi les premier, deuxième et troisième éléments graphiques 19, 21 , 23 précédemment décrits.
En début de mission, le véhicule 1 peut être représenté tel que vu depuis une posture initiale PosO de coordonnées (Xcamo, Ycamo, Zcamo, θο, φο) prédéfinie de la caméra virtuelle initiale 1 1 dans le repère véhicule (0, Xv, Yv, Zv).
L'écran tactile 7 affiche par exemple le premier élément graphique 19 associé au premier paramètre de posture (l'angle d'orientation Θ).
En affichant simultanément la représentation 15 du véhicule 1 et du premier élément graphique 19, le choix par l'usager de la posture de la caméra virtuelle 1 1 , et donc de la vue virtuelle de l'environnement, est facilité. En effet, l'usager comprend rapidement à quels emplacements il peut placer la caméra virtuelle 1 1. Le choix de l'emplacement de la caméra virtuelle 1 1 ne requiert pas une grande attention puisqu'un seul appui ponctuel avec le doigt suffit, et l'usager peut se concentrer sur les manœuvres qu'il est en train d'effectuer.
L'écran tactile 7 peut en outre afficher des instructions à destination de l'usager. Ces instructions peuvent lui expliquer de quelle manière sélectionner l'emplacement de la caméra virtuelle 11. Selon l'invention, la sélection est réalisée par un appui ponctuel de l'usager sur l'écran tactile 7, plus précisément sur un des éléments graphiques affichés.
Lors d'une étape b), l'écran tactile 7 acquiert la position d'un premier point P1 du premier élément graphique 19 sélectionné par un appui de l'usager exercé sur l'écran tactile 7. La position du premier point sélectionné P1 est exprimée par un jeu de coordonnées en pixels dans le repère écran (0,
Figure imgf000013_0005
Ye, Ze) précédemment décrit.
Les coordonnées du premier point sélectionné P1 sont
Figure imgf000013_0004
transmises à l'unité de calcul 9.
Lors d'une étape c) de calcul, l'unité de calcul 9 calcule la valeur du premier paramètre de posture, ici l'angle d'orientation θι de la caméra virtuelle 11 autour du véhicule 1 , en fonction des coordonnées (yp-i, ZPI) du premier point sélectionné P1 afin d'en déduire une nouvelle posture Pos1 de la caméra virtuelle 1 1.
On décrit à présent des calculs et des transformations utilisés par l'unité de calcul 9 afin d'obtenir la valeur de l'angle d'orientation θι, qui permet de déduire les premières coordonnées de la caméra virtuelle 11.
Figure imgf000013_0003
L'angle d'orientation θι est déterminé grâce à la formule :
Figure imgf000013_0001
A ce stade, on rappelle que (Xc, Yc, Zc) sont les coordonnées du centre C du véhicule 1 définies dans le repère véhicule et que R1 est le rayon du premier cercle C1 (premier élément graphique 19). Les coordonnées (Xc, Yc, Zc), la valeur de R1 ainsi que d'autres variables utilisées dans les calculs qui vont être décrits plus loin, telles que
Figure imgf000013_0002
et R2, sont stockées dans l'unité de mémoire.
De plus, on définit les coordonnées (XVPI, yvpi, ZVPI) comme les coordonnées en trois dimensions du premier point sélectionné P1 dans le repère véhicule (0, Xv, Yv, Zv). La seule variable inconnue de l'équation de l'angle d'orientation θι est donc la coordonnée XVP-I . La coordonnée est déterminée grâce à la formule :
Figure imgf000014_0005
Dans cette formule Xcamo et Ycamo sont les coordonnées initiales, et donc connues, de la caméra dans le repère véhicule. Zc est également connu.
R3 est déterminé au moyen de la formule :
Figure imgf000014_0002
Où Zcamo et Xcamo sont connus.
Les coordonnées (xpn, ypn , ) sont les coordonnées du premier point sélectionné P1 projeté sur un premier plan focal PF1 de la caméra virtuelle 1 1 , et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le premier plan focal PF1 étant associé à la première posture de la caméra virtuelle 1 1).
Pour calculer les coordonnées xp11 et on utilise des équations de projections perspectives :
Figure imgf000014_0001
Où on rappelle que yp1 et zpi sont les coordonnées du premier point sélectionné P1 et donc connus.
Avec de manière générale :
Figure imgf000014_0003
Les équations de projections perspectives associées aux matrices Ry et
Rz permettent donc de calculer
Figure imgf000014_0008
et . La connaissance de xpn et z
Figure imgf000014_0009
permet de calculer
Figure imgf000014_0006
et
Figure imgf000014_0007
et ainsi de remonter jusqu'à et enfin à l'angle d'orientation θ1 .
Figure imgf000014_0004
Une fois que l'unité de calcul 9 a déterminé la valeur du premier angle d'orientation θ1 , elle peut l'utiliser pour calculer les autres coordonnées
Figure imgf000014_0010
de la première posture de la caméra virtuelle 11
Figure imgf000015_0003
Les coordonnées de la première posture de la
Figure imgf000015_0002
caméra virtuelle 11 sont données par :
Figure imgf000015_0001
En effet, ici Yc est nul car le centre C du deuxième cercle C2 est situé sur l'axe (OYv). De plus, le premier élément graphique 19 ne permettant pas de modifier la hauteur de la caméra virtuelle 11 , les premières valeurs des coordonnées Zcam et φ restent inchangées.
Lors d'une étape d), les capteurs d'images 5 acquièrent des images réelles de l'environnement du véhicule 1. L'étape d) peut avoir lieu simultanément aux étapes a), b), c) précédentes, ou avant celles-ci.
Les images réelles sont transmises à l'unité de calcul 9 qui compose une image virtuelle de l'environnement du véhicule 1 tel que vu depuis la caméra virtuelle 1 1 lors d'une étape e).
L'unité de calcul 9 choisit les images réelles à utiliser en fonction de la posture de la caméra virtuelle 1 1. Par exemple, quand la caméra virtuelle est placée au dessus du véhicule 1 avec un axe optique parallèle à l'axe (OZv) du repère véhicule
Figure imgf000015_0004
l'image virtuelle 13 affichée est celle représenté par la figure 6.
Pour une autre posture de la caméra virtuelle 11 , l'unité de calcul 9 peut par exemple composer l'image virtuelle 13 à partir des images réelles de seulement un, deux ou trois capteurs d'images 5.
Cette étape de composition de l'image ne formant pas en propre le cœur de l'invention et étant déjà bien connue de l'homme du métier, elle ne sera pas ici décrite plus en détail.
Le procédé d'affichage prévoit en outre une étape de lecture d'une représentation 15 du véhicule 1 tel que vu depuis la nouvelle posture Pos 1 de la caméra virtuelle 11 déduite à l'étape c). La représentation 15 du véhicule 1 est par exemple sélectionnée parmi la pluralité de représentations 15 mémorisées dans l'unité de mémoire.
Puis, l'image virtuelle 13 de l'environnement 17 et la représentation 15 du véhicule 1 sont affichées sur l'écran tactile 7 lors d'une étape f). Ainsi, l'usager peut facilement choisir l'emplacement de la caméra virtuelle 11 , et accède à une information facilement compréhensible lui permettant de mieux visualiser l'environnement 17 du véhicule 1.
On peut ensuite prévoir que l'unité de calcul 9 commande ensuite l'affichage du deuxième élément graphique 21 afin de permettre à l'usager de régler la hauteur de la caméra virtuelle 11 , avant d'afficher le troisième élément graphique 23 afin de régler la distance horizontale entre la caméra virtuelle 11 et le véhicule 1.
Plus précisément, pour acquérir le deuxième paramètre de posture, l'unité de calcul 9 affiche le deuxième élément graphique 21 associé au deuxième paramètre de posture, c'est-à-dire le segment vertical lors de l'étape a).
Le segment vertical est par exemple affiché le long d'un axe vertical passant par le centre C.
Puis, lors de l'étape b), l'unité de calcul 9 acquiert la position d'un deuxième point sélectionné P2 par appui sur l'écran tactile au niveau du segment vertical.
Ce deuxième point sélectionné P2 permet de calculer lors de l'étape c) d'une part une deuxième valeur de la coordonnée Zcam2 de la deuxième posture Pos2 de la caméra virtuelle 1 1 et d'autre part une deuxième valeur de son angle d'inclinaison 92.
Les coordonnées du deuxième point sélectionné P2
Figure imgf000016_0003
dans le repère du véhicule
Figure imgf000016_0004
Figure imgf000016_0001
On cherche donc à obtenir l'altitude Pour cela, on utilise la formule
Figure imgf000016_0005
mathématique suivante :
Figure imgf000016_0002
Dans laquelle :
Figure imgf000017_0001
Les coordonnées
Figure imgf000017_0008
sont les coordonnées du deuxième point sélectionné P2 projeté sur un deuxième plan focal PF2 de la caméra virtuelle 11 , et exprimées dans le repère véhicule (le deuxième plan focal
Figure imgf000017_0006
PF2 étant associé à la deuxième posture de la caméra virtuelle 11 ).
Pour calculer les coordonnées on utilise des équations de
Figure imgf000017_0007
projections perspectives :
Figure imgf000017_0002
Où on rappelle que yp2 et ZP2 sont les coordonnées du deuxième point sélectionné P2 et donc connues. De plus, dans la matrice Ry, l'angle d'orientation Θ autour du véhicule 11 présente la première valeur Θ1 précédemment calculée. En se plaçant dans le deuxième plan focal PF2, on applique le théorème de Thalès de la façon suivante :
Figure imgf000017_0004
La caméra virtuelle 11 est donc positionnée en
Figure imgf000017_0003
De plus, comme la caméra virtuelle 1 1 est orienté vers le centre C, l'angle d'inclinaison φ est :
Figure imgf000017_0005
Les étapes d) et e) sont ensuite répétées de façon à afficher une image de l'environnement 17 et une représentation 15 du véhicule 1 , vus depuis une altitude correspondant au souhait de l'usager.
En dernier lieu, l'unité de calcul 9 commande l'affichage du troisième élément graphique 23 sur l'écran tactile 7 au cours d'une nouvelle étape a).
Le segment horizontal du troisième élément graphique 23 est par exemple disposé le long d'un axe passant par le centre C et à un angle égal à l'angle d'orientation θ + π/2 par rapport à l'axe longitudinal (OXv).
Lors de l'étape b), l'unité de calcul 9 acquiert la position du troisième point sélectionné P3 par appui sur le segment horizontal. Les coordonnées
Figure imgf000018_0010
du troisième point sélectionné P3 sur l'écran tactile 7 sont transmises à l'unité de calcul 9.
Ce troisième point sélectionné P3 permet de calculer, lors de l'étape c), une nouvelle distance horizontale
Figure imgf000018_0011
2f à appliquer entre le véhicule 1 et la caméra virtuelle 1 1.
Pour réaliser ces calculs, l'unité de calcul 9 utilise les valeurs d'angle d'orientation θ1 , et d'angle d'inclinaison
Figure imgf000018_0012
précédemment calculées.
Les coordonnées du projeté du troisième point sélectionné P3 dans le repère véhicule (Xv, Yv, Zv) sont notées
Figure imgf000018_0009
Figure imgf000018_0001
avec R2i la valeur initiale du rayon R2.
On a :
Figure imgf000018_0002
avec R1 la valeur initiale du premier rayon R1 et R 1f la valeur finale du premier rayon R1 . Nous avons bien noté la formule mathématique :
Figure imgf000018_0003
Dans laquelle Xvp est la coordonnée du point d'intersection du cercle de rayon R1 et du segment horizontal du troisième élément graphique 23. La coordonnée xvp est obtenue avec la formule :
Figure imgf000018_0004
Où toutes les variables sont connues. La coordonnée
Figure imgf000018_0008
est calculée grâce à la formule :
Figure imgf000018_0005
Où Xcamo et Ycamo sont les coordonnées initiales de la caméra virtuelle 1 1 dans le repère véhicule. Zc est également connu.
R3 est déterminé au moyen de la formule :
Où :
Figure imgf000018_0006
Les coordonnées sont les coordonnées du troisième
Figure imgf000018_0007
point sélectionné P3 projeté sur un troisième plan focal PF3 de la caméra virtuelle 11 , et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le troisième plan focal PF3 étant associé à la troisième posture de la caméra virtuelle 11).
En se plaçant dans le troisième plan focal PF3 on applique le théorème de Thalès de la façon suivante :
Où :
Figure imgf000019_0002
Pour calculer les coordonnées et on utilise des équations de
Figure imgf000019_0005
Figure imgf000019_0004
projections perspectives : ;
Figure imgf000019_0001
Où on rappelle que et sont les coordonnées du troisième point
Figure imgf000019_0007
Figure imgf000019_0006
sélectionné P3 et donc connues. De plus, dans la matrice Ry, l'angle d'orientation Θ autour du véhicule 11 présente la première valeur θι précédemment calculée, et dans la matrice Rz, l'angle d'inclinaison φ présente la valeur 92 précédemment calculée.
Les coordonnées de la caméra virtuelle 1 1 sont :
Figure imgf000019_0003
Les étapes d) et e) sont ensuite répétées De façon à afficher une image de l'environnement 17 et une représentation 15 du véhicule 1 , vus depuis une distance au véhicule 1 correspondant au souhait de l'usager.
L'image virtuelle 13 comprenant l'environnement 17 du véhicule 1 ainsi que la représentation 15 du véhicule 1 est donc composée et affichée après chaque déduction de nouvelle posture de la caméra virtuelle 11.
En variante, l'image virtuelle 13 pourrait n'être composée et affichée qu'après que le conducteur ait sélectionné les trois points sélectionnés P1 , P2, P3. Pour cela, en combinant les coordonnées de la caméra virtuelle calculée à partir du premier point sélectionné P1 , du deuxième point sélectionné P2 et du troisième point sélectionné P3, on pourrait utiliser un jeu de coordonnées finales (Xcamf, de la caméra virtuelle 1 1 :
Figure imgf000020_0002
Figure imgf000020_0001
Selon une variante du procédé d'affichage, l'unité de calcul 9 pourrait commander l'affichage simultané des premier élément graphique 19, deuxième élément graphique 21 et troisième élément graphique 23 précédemment décrits, lors de l'étape a) d'affichage.
L'usager pourrait alors choisir avec précision la nouvelle posture de la caméra virtuelle 11 en choisissant un point sur l'un quelconque des premier, deuxième et troisième éléments graphiques 19, 21 , 23.
Ainsi, l'acquisition des premiers, deuxième et troisième points sélectionnés P1 , P2, P3 pourrait être réalisée dans un ordre quelconque. Par conséquent, l'usager pourrait sélectionner dans un ordre quelconque la hauteur de la caméra virtuelle 1 1 , l'angle de rotation Θ de la caméra virtuelle 11 et la distance horizontale R2 entre la caméra virtuelle 11 et le véhicule 1.
De manière avantageuse, le premier élément graphique 19, le deuxième élément graphique 21 , et le troisième élément graphique 23 présentent chacun une couleur différente.
En complément de l'invention, l'unité de calcul 9 peut mettre en œuvre un procédé automatique de détermination de la posture de la caméra virtuelle 11, lorsque les conditions le requièrent.
Plus précisément ici, l'unité de calcul 9 est programmée pour modifier automatiquement la posture de la caméra virtuelle 11 lorsqu'un obstacle est détecté à proximité du véhicule 1.
Pour cela, l'unité de calcul 9 détermine la trajectoire du véhicule 1 lors d'une étape de prédiction. L'unité de calcul 9 détermine cette trajectoire en fonction au moins de l'angle du volant et du rapport de vitesse engagé (marche avant ou marche arrière).
Puis, lors d'une étape de détection, l'unité de calcul 9 recherche si un obstacle est situé à proximité du véhicule 1. Plus précisément, l'unité de calcul 9 détermine si un obstacle est situé sur la trajectoire précédemment prédite.
Pour cela, l'unité de calcul 9 utilise des télédétecteurs (radar et/ou sonar et/ou lidar) situés autour du véhicule 1. Par exemple ici, le véhicule 1 est équipé de six télédétecteurs à l'avant et de six télédétecteurs à l'arrière. Les télédétecteurs permettent non seulement de détecter la présence d'un obstacle, mais aussi d'évaluer la distance entre ledit obstacle et le véhicule 1.
Si un obstacle est détecté sur la trajectoire prédite, alors l'usager ne peut plus choisir la posture de la caméra virtuelle 11 de façon manuelle. Le choix est effectué de façon automatique par l'unité de calcul 9.
Si le véhicule 1 se déplace vers l'avant, et qu'un obstacle est détecté sur sa trajectoire, alors la caméra virtuelle est automatiquement positionnée le long de l'axe longitudinal (OXv) du véhicule 1 , vers l'arrière du véhicule 1 , et dirigée vers l'avant du véhicule 1. La caméra virtuelle 1 1 est alors placée à un angle d'orientation θ égal à π radians.
En variante, l'unité de calcul 9 pourrait choisir l'angle d'orientation Θ parmi une pluralité d'angles de rotation Θ mémorisée dans l'unité de mémoire.
De façon préférentielle, l'unité de calcul 9 détermine la hauteur de l'obstacle. L'angle d'inclinaison φ de la caméra virtuelle 11 est alors calculé pour que l'axe optique de la caméra virtuelle 11 passe par le centre de l'obstacle.
La distance horizontale R2 entre le véhicule 1 et la caméra virtuelle 1 1 est calculée en fonction de la distance détectée entre l'obstacle et le véhicule 1.
Plus l'obstacle détecté est proche, et plus la caméra virtuelle 1 1 paraît proche.
BLANK UPON FILING

Claims

REVENDICATIONS
1 . Procédé d'affichage d'une image de l'environnement d'un véhicule (1 ) sur un écran tactile (7) équipant le véhicule (1 ), comprenant des étapes de :
a) affichage sur ledit écran tactile (7) :
- d'une image du véhicule (1 ) tel qu'il serait vu depuis une caméra virtuelle (1 1 ) placée dans une posture initiale (PosO), et
- d'au moins un élément graphique (19, 21 , 23) associé un paramètre de posture de la caméra virtuelle (1 1 ),
Figure imgf000023_0001
b) acquisition de la position d'un point (P1 , P2, P3) dudit élément graphique (19, 21 , 23) sélectionné par appui d'un usager sur l'écran tactile (7), c) calcul de la valeur dudit paramètre de posture
Figure imgf000023_0002
en fonction de la position dudit point (P1 , P2, P3), et déduction d'une nouvelle posture de la caméra virtuelle (1 1 ),
d) acquisition d'images réelle de l'environnement par une pluralité de capteurs d'images (5),
e) composition, à partir des images réelles acquises à l'étape d), d'une image virtuelle (13) de l'environnement (17) du véhicule (1 ) tel qu'il serait vu depuis la caméra virtuelle (1 1 ) placée dans la nouvelle posture déterminée à l'étape c), et
f) affichage sur l'écran tactile (7) de l'image virtuelle (13).
2. Procédé d'affichage selon la revendication précédente, dans lequel il est prévu une étape de constitution d'une représentation (15) du véhicule (1 ) tel qu'il serait vu depuis la caméra virtuelle (1 1 ) dans la nouvelle posture déterminée à l'étape c), et dans lequel, à l'étape e), l'image virtuelle (13) est obtenue en superposant la représentation (15) du véhicule (1 ) à l'environnement (17).
3. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un cercle situé autour de l'image du véhicule (1 ) et ledit paramètre de posture (Θ) est un angle d'orientation (Θ) de la caméra virtuelle (1 1 ) autour du véhicule (1 ).
4. Procédé d'affichage selon la revendication précédente, dans lequel ledit élément graphique (19, 21 , 23) permet de sélectionner l'angle d'orientation (Θ) de la caméra virtuelle (1 1 ) autour du véhicule (1 ) avec un pas de 1 degré.
5. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un segment situé verticalement par rapport à l'image du véhicule (1 ) et ledit paramètre de posture (Θ, Zcam, R2) est une distance verticale (Zcam) entre le véhicule (1 ) et la caméra virtuelle (1 1 ).
6. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un segment situé horizontalement par rapport à l'image du véhicule (1 ) et le paramètre de posture (Θ, Zcam, R2) est une distance horizontale (R2) entre le véhicule (1 ) et la caméra virtuelle (1 1 ).
7. Procédé d'affichage selon l'une des revendications précédentes, dans lequel les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l'usager sur l'écran tactile (7).
8. Procédé d'affichage selon l'une des revendications précédentes, dans lequel, la caméra virtuelle (1 1 ) présentant un axe optique (A0), à l'étape c), la nouvelle posture de la caméra virtuelle (1 1 ) est définie de telle sorte que ledit axe optique (A0) passe par un point prédéterminé du véhicule (1 ).
9. Système d'aide à la conduite d'un véhicule comprenant :
- quatre capteurs d'images (5), chacun des quatre capteurs d'images (5) étant placé sur un des quatre côtés du véhicule (1 ), chacun des quatre capteurs d'images (5) étant apte à acquérir une image réelle de l'environnement du véhicule (1 ),
- un écran tactile (7), et
- une unité de calcul (9) programmée pour mettre en œuvre un procédé d'affichage tel que défini dans l'une des revendications précédentes.
PCT/EP2018/080190 2017-11-08 2018-11-05 Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule WO2019091920A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18795667.7A EP3707679A1 (fr) 2017-11-08 2018-11-05 Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1760503 2017-11-08
FR1760503A FR3073310B1 (fr) 2017-11-08 2017-11-08 Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule

Publications (1)

Publication Number Publication Date
WO2019091920A1 true WO2019091920A1 (fr) 2019-05-16

Family

ID=61027915

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/080190 WO2019091920A1 (fr) 2017-11-08 2018-11-05 Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule

Country Status (3)

Country Link
EP (1) EP3707679A1 (fr)
FR (1) FR3073310B1 (fr)
WO (1) WO2019091920A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419949A (zh) * 2022-01-13 2022-04-29 武汉未来幻影科技有限公司 一种汽车后视镜影像重建方法及后视镜

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3098620B1 (fr) * 2019-07-12 2021-06-11 Psa Automobiles Sa Procédé de génération d’une représentation visuelle de l’environnement de conduite d’un véhicule

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
UNKNOWN: "360? Wrap-Around Video Imaging Technology Ready for Integration with Fujitsu Graphics SoCs", 1 January 2014 (2014-01-01), XP055406437, Retrieved from the Internet <URL:https://www.fujitsu.com/us/Images/360_OmniView_AppNote.pdf> [retrieved on 20170913] *
YEN-TING YEH: "Driver Assistance System Providing an Intuitive Perspective View of Vehicle Surrounding", COMPUTER VISION - ACCV 2014 WORKSHOPS, 1 January 2015 (2015-01-01), Cham, XP055473080, ISBN: 978-3-319-16631-5, Retrieved from the Internet <URL:http://imlab.tw/wp-content/uploads/2015/11/Driver-Assistance-System-Providing-an-Intuitive-Perspective-View-of-Vehicle-Surrounding.pdf> [retrieved on 20180507] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419949A (zh) * 2022-01-13 2022-04-29 武汉未来幻影科技有限公司 一种汽车后视镜影像重建方法及后视镜

Also Published As

Publication number Publication date
EP3707679A1 (fr) 2020-09-16
FR3073310A1 (fr) 2019-05-10
FR3073310B1 (fr) 2021-02-26

Similar Documents

Publication Publication Date Title
EP2133237B1 (fr) Procédé d&#39;affichage d&#39;aide au parking
FR2871737A1 (fr) Procede pour atteler une remorque a un vehicule automobile
EP3601005B1 (fr) Procédé et dispositif d&#39;assistance d&#39;un conducteur de véhicule à conduite autonome, notamment lors d&#39;une reprise de contrôle manuel
FR3098172A1 (fr) Procédé de détermination d’une trajectoire d’évitement d’un véhicule automobile
EP2094531B1 (fr) Dispositif retroviseur electronique
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
WO2019091920A1 (fr) Procede d&#39;affichage d&#39;une image de l&#39;environnement d&#39;un vehicle sur un ecran tactile equipant le vehicule
EP3245117B1 (fr) Procede et dispositif d&#39;aide a la manoeuvre en marche arriere d&#39;un vehicule automobile
EP2750961B1 (fr) Dispositif pour estimer une trajectoire future d&#39;un véhicule et associer à des parties qu&#39;elle comprend des aspects différents selon leurs positions par rapport à un obstacle, pour un système d&#39;aide à la conduite
WO2010037795A1 (fr) Procédé de commande et système d&#39;aide à la conduite associé
FR3016573B1 (fr) Installation de retroviseur de vehicule
EP2801075B1 (fr) Procede de traitement d&#39;image d&#39;une camera embarquee sur un vehicule et dispositif de traitement correspondant
EP3682320B1 (fr) Procédé d&#39;affichage sur un écran d&#39;un environnement d&#39;un véhicule automobile, et véhicule automobile dans lequel un tel procédé est mis en oeuvre
EP3418121B1 (fr) Dispositif pour afficher un débattement d&#39;une portière d&#39;un véhicule et procédé associé
EP3377386B1 (fr) Procédé d&#39;aide a la conduite d&#39;un véhicule automobile
WO2012076789A1 (fr) Dispositif d&#39;aide permettant au conducteur d&#39;un vehicule de verifier une zone de stationnement quittee
FR3080075A1 (fr) Procede et systeme d&#39;aide au pilotage d&#39;un vehicule
EP2193047B1 (fr) Dispositif d&#39;aide a la sortie de voie occultee
WO2024121172A1 (fr) Procédé de détection d&#39;une ligne centrale d&#39;une voie de circulation et de pilotage d&#39;un véhicule automobile
FR3115008A1 (fr) Procédé d’aide à la conduite en marche arrière d’un véhicule automobile à l’arrière duquel est attelée une remorque
FR2956364A1 (fr) Dispositif d&#39;aide aux manoeuvres d&#39;un vehicule par affichage de points de vue fonction de la position de la tete du conducteur
EP4430569A1 (fr) Procédé d&#39;estimation dynamique du tangage d&#39;un véhicule automobile au moyen d&#39;un capteur d&#39;acquisition d&#39;images
FR3132487A1 (fr) Procédé de détection d’une ligne centrale d’une voie de circulation
WO2021249809A1 (fr) Procede de calibration d&#39;une camera et dispositif associe
FR3093968A1 (fr) Système de rétrovision pour véhicule comprenant une pluralité d’appareils de prise de vue et un calculateur

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18795667

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018795667

Country of ref document: EP

Effective date: 20200608