[go: up one dir, main page]

WO2025012524A1 - Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene - Google Patents

Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene Download PDF

Info

Publication number
WO2025012524A1
WO2025012524A1 PCT/FR2023/051056 FR2023051056W WO2025012524A1 WO 2025012524 A1 WO2025012524 A1 WO 2025012524A1 FR 2023051056 W FR2023051056 W FR 2023051056W WO 2025012524 A1 WO2025012524 A1 WO 2025012524A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
scene
display
target position
new image
Prior art date
Application number
PCT/FR2023/051056
Other languages
French (fr)
Inventor
Eric Legros
Sylvain PETITGRAND
Bruno Luong
Original Assignee
Fogale Optique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fogale Optique filed Critical Fogale Optique
Priority to PCT/FR2023/051056 priority Critical patent/WO2025012524A1/en
Publication of WO2025012524A1 publication Critical patent/WO2025012524A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Definitions

  • the present invention relates to a method for representing a scene allowing a personalized display of a scene on a display medium. It also relates to a computer program and a system implementing such a method.
  • the field of the invention is the field of displaying a digital image on a display medium, such as a display screen or a projection surface.
  • the human eye scans a scene, it observes said scene according to different focalizations to perceive the entirety of a scene.
  • the focalizations used to scan a scene depend directly on the depth of the objects in said scene.
  • the human eye adapts the focalization to the depth of the scene in said part, to obtain a clear perception of the scene in said area.
  • the methods for representing a scene currently known perform the display of an image of said scene according to a single focus, namely the focus used to capture said image.
  • the focus corresponds to one of said depths so that only one of the parts of the scene is clear in the displayed image.
  • Such a display gives a very limited and very static representation of the scene. It does not adapt to the interest that a user may have in this or that part of the scene represented on a display medium. In the case of a speaker observing the scene, it does not allow the display of said scene to the participants, depending on the area the speaker is interested in.
  • An aim of the present invention is to remedy at least one of the drawbacks of the state of the art.
  • Another aim of the invention is to propose a solution allowing a representation of a scene on a display medium which is more suited to a person observing said scene on said medium.
  • the invention proposes to achieve at least one of the aforementioned aims by a method of representing a scene from at least one image of said scene, said method comprising at least one iteration of a display phase comprising the following steps:
  • the method proposes to display an image, called the current image, of the scene on a first display medium.
  • This current image comprises a sharpness zone corresponding to a given depth of field: all the other zones of the current image are blurred.
  • the method according to the invention also proposes to determine a target position in which a speaker, observing the current image displayed on the first display medium, is interested. Then, this target position is used to obtain another image of the scene in which the target position is in a sharp zone, this new image is in a way an adjusted or refocused image. This new image is then displayed on at least one second medium observed by one or more participants, different from the speaker.
  • the display of the scene for each participant is personalized and adapts to the position in which the speaker is interested, so that the area observed by the speaker is always displayed clearly for the participant.
  • the clear area of the scene displayed on the second display medium for the participant follows the gaze of the speaker.
  • the focusing distance and optionally the depth of field of an image of a scene is not static, adapts and adjusts according to the speaker.
  • the or each speaker can follow the gaze of the speaker who navigates in the scene.
  • each display medium can be any type of display medium.
  • the first display medium, and/or the second display medium may be an electronic display screen.
  • the first display medium, and/or the second display medium may be a surface onto which an image of the scene is projected, such as for example a display surface associated with a projector, etc.
  • the first display medium, and/or the second display medium may be a display medium equipping a device participating in carrying out the display phase, such as:
  • the display medium may be a medium independent of the device participating in carrying out the display phase, for example in the context of a projector projecting the images onto a display surface.
  • the target position may be a point position on the current image.
  • the target position may be an area of the current image.
  • the method according to the invention can further comprise a step of displaying the new image on the first display medium.
  • the representation of the scene on the first display medium also adapts to the target position observed by the speaker.
  • the step of obtaining the new image can be carried out on the speaker's side, and in particular on the same site as the speaker, said new image being transmitted to the participant.
  • the step of obtaining the new image can be carried out at, and in particular by, the first apparatus.
  • the step of obtaining the new image can alternatively, or in addition, be carried out on the participant's side, and in particular on the same site as the participant, said method comprising a transmission of the target position to the participant.
  • the step of obtaining the new image can be carried out at, and in particular by, the second apparatus.
  • the step of obtaining the new image can be carried out elsewhere, for example at a device which is remote from the speaker and the participant.
  • the obtaining step can be carried out at said server.
  • the target position is transmitted to said server, and the new image obtained at level of said server is transmitted to the participant for display, and optionally to the speaker for display.
  • the step of obtaining the new image can comprise a generation of the new image, by calculation.
  • the new image can be generated on the fly after the target position is determined. In this case, the new image does not exist before the target position is known. Once the target position is known, then the new image is generated.
  • the new image can be generated from the current image.
  • the new image may be generated by blurring the currently sharp area of the current image and sharpening the area comprising, or corresponding to, the target position.
  • the new image may be generated from a source image, which is not the current image.
  • the source image may be a previously obtained image representing the scene in a clear manner in all areas.
  • a copy of this source image is made with modification of the sharpness: the target area is kept clear and all the other areas are blurred, to obtain the new image.
  • Such a source image can be obtained by taking several images of the scene with different depths of field, for example by the focus bracketing technique. Then, the sharp area of the scene is selected in each image. All the sharp areas obtained from all the images can be concatenated to obtain an image of the scene sharp in all areas.
  • Such a source image can also be obtained, by simulation or by calculation, from a 3D modeling of the scene (geometry + textures).
  • the calculation consists of synthesizing an image of the scene, which in conventional methods would be intrinsically sharp everywhere, and to "reblur" it on the fly according to the target area, by applying a blur function linked to the difference in depth between each point of the scene to be represented, and the depth of the target area.
  • the step of obtaining the new image can comprise a step of selecting the new image from a stack of images of said scene, each having a different sharpness zone.
  • the new image is not generated on the fly. It exists prior to the identification of the target position. This embodiment allows greater responsiveness of the method according to the invention.
  • the obtaining step may comprise an identification, in the image stack, of the image on which the target position is clearly represented. This image is selected as a new image to be displayed during the displaying step.
  • each image in the stack can be associated with information indicating the sharp area on said image.
  • the identification step consists in identifying which of the sharp areas comprises the target position and selecting the image associated with this sharp area.
  • the image stack may comprise at least one image captured by an imaging device, such as a camera.
  • the image stack may have been captured by one or more cameras, by implementing the focus bracketing technique providing several images of a scene, each with a different depth of field and therefore a different sharp area.
  • the image stack can comprise at least one image, obtained by calculation or by simulation, from at least one other image.
  • This other image may be an image comprising a sharp area and blurred areas.
  • the calculation to obtain an image of the stack consists in generating an image comprising a depth of field different from that of the other image.
  • the sharp area of the other image is made blurred and another area of the scene is made sharp.
  • the calculation consists in determining as best as possible the transfer function of the original optics as a function of the defocusing, and in determining the transfer function that we wishes to simulate given the distance of the points to be represented, i.e. as a function of the simulated focusing distance and the distance of the target area.
  • This other image can also be an image of the scene that is sharp in all areas, such as the source image described above.
  • the new image can be selected in several ways.
  • the display phase may further comprise, after identification of the target position, a step of identifying an object located at the target position.
  • obtaining the new image may be carried out as a function of said object.
  • the selection of the new image may comprise the identification of the image on which said object is clearly represented.
  • each image in the stack may be associated with information indicating the object(s) clearly represented on said image.
  • the display phase may comprise, after identification of the target position, a step of identifying a zone, called target, of the scene comprising the target position.
  • obtaining the new image may be carried out as a function of said target zone.
  • the selection of the new image may comprise the identification of the image on which said target area is in focus.
  • each image in the stack may be associated with information indicating the area represented in focus on said image.
  • the display phase may comprise a step of determining depth data of the scene at said target position, the new image being obtained as a function of said depth data.
  • the depth of the scene at said position can be determined.
  • the depth information of the scene at the target position can be calculated on the fly, for example by triangulation with another image of the scene.
  • the depth information of the scene at the target position may have been measured when the scene was imaged, by suitable measurement means, such as a time-of-flight camera, lidar, etc.
  • This depth information can be used, during the obtaining step, to select the new image in a stack of images: in this case, the image for which the depth of field corresponds to or includes the depth of the target position is identified. To do this, each image in the image stack can be associated with information indicating for said image the depth of field of said image.
  • the target position in which the user is interested can be detected in different ways.
  • the target position may be manually entered by the speaker.
  • the speaker who manually selects the target position on the current image, for example using a pointer, such as a mouse, a trackball, or a directional pad moving a cursor, or any other position input device.
  • the speaker can also enter the target position by touch selection on a touch surface arranged on the display medium in the case, for example, of a touch display screen, or remote from the display medium.
  • the step of detecting the target position may comprise a detection of a zoomed region of the current image by the speaker.
  • the target position may be the zoomed region, or may be a position in said zoomed region, such as for example a central position of said zoomed region.
  • the zoom can be applied in a known manner:
  • the target position can be the position equidistant from the positions of the fingers applying the zoom;
  • the step of detecting the target position may comprise, or be carried out, by a detection, by at least one sensor, of a position targeted by a part of the speaker's body, on the current image.
  • said body part may be at a distance from the first display support, and does not come into contact with said first display support or an associated control surface.
  • This part of the body can be a finger, or a hand, pointing the target position on the current image. In this case, it is the position aimed at by the finger or the hand located at a distance from the display support which is detected.
  • This part of the body can be an eye, or the eyes. In this case, it is the position targeted by the eye or eyes that is detected.
  • This part of the body may be a face.
  • the orientation of the face is detected and a position aimed at by a point of the face, for example by the center of the face, is detected.
  • the position targeted by the body part may be detected for example by at least one sensor equipping the first display support, or a device integrating the display support.
  • the sensor may alternatively be arranged at a distance from said first display support.
  • the at least one sensor for detecting the position may be an optical sensor, an acoustic sensor, a capacitive sensor, etc.
  • the sensor may be a capacitive sensor equipping said touch screen.
  • the at least one sensor for detecting the position of attention, or at least the movement of this position, may be an orientation sensor such as an accelerometer.
  • an accelerometer detecting its inclination or its changes in inclination relative to an initial inclination, or even translational movements of said medium, for example by double integration of the acceleration signal, may be used to detect a change in attention, assuming for example that the user's gaze would represent a fixed axis, and that the medium would be moved relative to this axis of attention, or even that the attention would come from an axis remaining perpendicular to said medium and passing through the user's eye, which amounts to associating with the variations in angle of the medium also a movement of the attention zone.
  • This detection mode can also be used in addition to other detection means such as the distance between the support and the eye of the observer of the support or in addition to the estimation of the position targeted by the eye.
  • other types of sensors can be used and the invention is not limited to a specific type of sensor.
  • the display phase can be repeated as many times as desired with a different target position, from one iteration to another.
  • the speaker can move through an image to observe different parts of the image, each part being displayed in a sharp manner for the participant when it is observed by the speaker.
  • the sharpness area of the image is adjusted, for the participant, as the scene is moved through by the speaker.
  • the display phase can be repeated for several images, or series of images, each captured at a different time, for example part of a video.
  • each image or series of images represents the scene at a different time.
  • a computer program comprising executable instructions which, when executed by a computing device, implement all the steps of the method according to the invention.
  • the computer program may be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
  • a system comprising means configured to implement all the steps of the method according to the invention.
  • system according to the invention may comprise:
  • the system may comprise:
  • the step of obtaining the new image can be implemented in the first device or in the second device, as described above with reference to the method according to the invention.
  • the system may comprise:
  • the step of obtaining the new image can be implemented in the first device or in the second device, or even in the server, as described above with reference to the method according to the invention.
  • the system may comprise:
  • the step of obtaining the new image is implemented in the device and displayed on the second device, and optionally on the first display medium.
  • the common device may be a user device of the Smartphone, tablet, etc. type comprising a display screen.
  • the detection means may be or may comprise a touch surface, in particular integrated into, or associated with, the display screen of said device.
  • the common apparatus may be a computer-type user apparatus, comprising a display screen.
  • the detection means may be or may comprise a touch surface, in particular integrated in, or associated with, the display screen of said computer, or a pointer moved for example by a mouse, or a directional pad of said computer.
  • the common device may be a television.
  • the detection means may be a camera integrated into said television, detecting the gaze and the position of the head of the observer, or a pointer moved for example by a remote control of said television.
  • the common device may be a video headset, a virtual reality or augmented reality headset comprising a display screen or a projector associated with a projection surface on which each image is projected.
  • the detection means may be or may comprise a sensor, in particular an optical sensor, equipping said headset.
  • the common apparatus may be a medical imaging apparatus.
  • the apparatus may be an endoscope, an ultrasound apparatus, etc.
  • the common apparatus may be an inspection apparatus in a difficult-to-access environment such as a pipeline, or a location presenting a particular danger (such as exposure to radiation or an area threatening to collapse).
  • the apparatus may be an endoscope, an ultrasound apparatus, or a mobile camera on a robot, etc.
  • the common apparatus or at least one or more first and second apparatuses, may be arranged, or integrated, in a vehicle or several vehicles comprising:
  • the vehicle may be common to the first and second devices, or said first and second devices may be in different vehicles.
  • the common device or at least the first device, may be arranged, or integrated, in a device for taking at least one or more video surveillance images, such as a video camera monitoring, for example in a non-exhaustive manner, road traffic or an urban environment, or premises to be protected, or even a place receiving the public or a gathering of people, or a conference room.
  • video surveillance images such as a video camera monitoring
  • the second device may be integrated into a vehicle, or be a smartphone or even a computer, or a display screen.
  • said first and second devices may be of different types, or integrated into different objects, all combinations are possible such as, in a non-limiting manner, the first device integrated into a smartphone, or into an endoscope, and the second device integrated into a computer or into a vehicle, for example.
  • At least one image of the scene can be a 2D image.
  • the current image is a 2D image.
  • the new image is a 2D image.
  • the image stack comprises at least one 2D image.
  • each image in the image stack is a 2D image.
  • At least one image of the scene is a 3D image.
  • the current image is a 3D image.
  • the new image is a 3D image (therefore comprising a depth field).
  • the image stack comprises at least one 3D image.
  • each image in the image stack is a 3D image.
  • FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention.
  • FIGURES 2 and 3 are schematic representations of non-limiting exemplary embodiments of a step of obtaining a new image that can be implemented in the present invention
  • FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of obtaining a clear image everywhere;
  • FIGURES 5-7 are schematic representations of other non-limiting exemplary embodiments of a method according to the invention.
  • FIGURES 8-9 are schematic representations of non-limiting exemplary embodiments of a system according to the invention.
  • FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.
  • the method 100 of FIGURE 1 can be used to produce a personalized display of a scene from image(s) of said scene.
  • the method 100 comprises a display phase 102 allowing the clear display, on the fly, of an area of a scene from at least one image of said scene.
  • the display phase 102 comprises a step 104 during which an image IC of the scene is displayed on a first display medium.
  • This current image IC is called current image in the following.
  • the first display medium may be an electronic screen, and in particular a touch screen.
  • the first display medium may alternatively be a display surface, such as a wall, a board, a panel or a canvas, onto which the image is projected, for example by a projector.
  • This first display medium is observed by a first user.
  • this first user is called a “speaker”.
  • the current image IC may be one captured by an imaging device, such as a camera, or a camera module.
  • the current image may also be an image generated by calculation.
  • the current image displayed on the first display medium has a given depth of field such that a region of the scene is displayed sharply and the rest of the scene is displayed blurred.
  • the display phase 102 comprises a step 106 of detecting, on the current image IC, a target position POS of the scene on which the speaker is focusing his attention.
  • This target position POS can be a point position, or an area not limited to a point position.
  • the target position POS can be detected in different ways, some non-limiting examples of which are given above.
  • the target position POS can be selected with a pointer, such as a mouse or the like.
  • the speaker moves the pointer to the desired target position.
  • the target position POS may be a position indicated by a part of the speaker's body, such as a finger or a hand, by contact on a touch-sensitive surface, integrated or not in the first display medium.
  • the target position POS may be indicated by contact on a touch screen forming the first display medium.
  • the target position POS may be a position aimed at by a part of the speaker's body, such as a finger, a hand, an eye, the eyes or the face of the speaker, which does not come into contact with the first display medium.
  • the position aimed at by said part of the speaker's body on the current image IC, and therefore on the first display medium may be detected in any known manner, for example by at least one sensor, integrated or not in the first display medium, such as a capacitive sensor, a camera, etc.
  • the display phase 102 comprises a step 108 of obtaining a new image clearly displaying the scene at the target position POS, or a target area of the scene comprising said target position POS.
  • this new image represents the scene at the same time as the current image.
  • this new image may represent the scene at a time other than the current image, such as for example at a following time or at a later time.
  • the display phase 102 comprises a step 110 of displaying the new image on at least one second medium.
  • The, or each, second display medium may be an electronic screen, and in particular a touch screen.
  • The, or each, second display medium may alternatively be a display surface, such as a wall, a board, a panel or a canvas, onto which the image is projected, for example by a projector.
  • The, or each, second display medium is observed by at least one second user.
  • this second user is called a “participant”.
  • the display phase 102 may further comprise a step 112 of displaying the new image on the first display medium. Steps 110 and 112 may be performed in turn, in any order, or at the same time.
  • the step 108 of obtaining the new image can be carried out on the speaker's side, and in particular on the same site as the speaker, said new image being transmitted to the participant.
  • the step 108 of obtaining the new image can be carried out at, and in particular by, the first apparatus.
  • the step 108 of obtaining the new image can be carried out on the participant's side, and in particular on the same site as the participant. In this case, the target position POS is transmitted to the participant for carrying out step 108.
  • step 108 of obtaining the new image can be carried out at, and in particular by, the second device.
  • the step 108 of obtaining the new image can be carried out elsewhere, for example at a device that is remote from the speaker and the participant.
  • the obtaining step 108 can be carried out at said server.
  • the target position POS is transmitted to said server, and the new image obtained at said server is transmitted to the speaker, and optionally to the participant.
  • the display phase can be carried out for several participants, for the same speaker.
  • the display step 110 is carried out in a common manner for several participants when the second display medium is common to several participants, or individually for each participant when a second display medium is associated with each participant.
  • the display phase 102 can be repeated as many times as desired to change the display of the scene, and in particular to change the area of the scene displayed clearly.
  • the display phase 102 can be carried out each time the speaker chooses, or validates, a new target position.
  • the display phase 102 can be carried out continuously, for example:
  • the new image displayed during step 110, and optionally during step 112 can be used as the current image for the next iteration of the display phase 102.
  • step 112 can be confused with step 104, in particular when the display phase 102 is iterated several times for the same scene.
  • the new image IN can be the current image IC for the next iteration of the display phase 102.
  • FIGURE 2 is a schematic representation of a first non-limiting exemplary embodiment of a step of obtaining a new image, which can be implemented in the present invention.
  • Step 200 shown in FIGURE 2, can be implemented to obtain a new image to be displayed, from a target position POS, in the method according to the invention, and in particular in the method 100 of FIGURE 1.
  • Step 200 may be, or may be included in, step 108 of method 100 of FIGURE 1.
  • the new image is selected from a stack of PIL images of the scene.
  • Each of the images in the stack of images represents the scene with a different depth of field.
  • each image in the PIL stack represents the scene but on each image a different part of the scene is sharp and all other parts of the scene are blurred.
  • Each image can be associated with at least one of the following data:
  • each image is associated with data indicating the depth of field of the image, said depth of field thus indicating the part of the scene which is clearly represented on the image.
  • the PIL image stack can be acquired by known focus bracketing techniques, also called "focus stacking" in French, with an imaging device.
  • the imaging device is controlled to obtain several images of the same scene one after the other. Between each image, the focus of the device is modified so that each image is acquired with a different focus, and therefore with a different depth of field.
  • the PIL image stack can be obtained by calculation, from one or more images of the scene.
  • the depth associated with the target position POS, in the scene is determined.
  • This target position POS has been previously determined, for example during step 106.
  • This depth may have been measured, by one or more sensors, when the scene is imaged and stored. Such a measurement may for example be carried out by sensors such as lidar sensors, or time-of-flight cameras, etc. In this case, the depth data is read during step 204. [0135] Alternatively, the depth may be calculated, for example by triangulation techniques, from at least two images of the scene. These triangulation calculation techniques are well known and will therefore not be detailed here. In this case, the depth data is calculated in step 204, or read when the calculation has been carried out previously.
  • the depth of the target position POS is compared to the data associated with each image of the stack 202, and indicating the depth of field, that is to say an interval of distances at which a point of the scene is obtained in a sufficiently clear manner on the image, in said image.
  • this image of the stack is selected, during a step 206, as a new image. Indeed, as the depth of the target position is in the depth of field of this image of the stack, this means that a part of the scene, including the target position, is represented clearly on this image.
  • the image of the stack can thus be selected as a new image. [0139] Optionally, it can be processed during an optional image processing step 208. [0140] In the example described with reference to FIGURE 2, the new image is obtained from the depth associated with the target position.
  • FIGURE 3 is a schematic representation of a second non-limiting exemplary embodiment of a step of obtaining a new image, which can be implemented in the present invention.
  • Step 300 shown in FIGURE 3, can be implemented to obtain a new image to be displayed, from a target position, in the method according to the invention, and in particular in the method 100 of FIGURE 1.
  • Step 300 may be, or may be included in, step 108 of method 100 of FIGURE 1.
  • the new IN image is generated, on the fly, from an INP image of the scene, sharp everywhere.
  • the depth of field potentially covers the entire depth of the scene.
  • the everywhere clear image INP can be obtained by assembling images from a stack of images, each having a limited area of sharpness in the scene, such as the image stack
  • the sharp image everywhere INP can be obtained by calculation, from a single image of the scene.
  • Step 300 may optionally include step 202 determining the depth of the scene at the target position POS, as described above.
  • an area of the sharp image everywhere IM is selected, this area comprising the target position POS.
  • This area can be selected arbitrarily, as long as it contains the target position.
  • this area can be selected, according to a predetermined rule: for example, it can correspond to the center of an area of predetermined size and shape.
  • this area can be selected, according to one or more objects located at the target position.
  • this area can be selected according to a depth map of the scene around the position, and a predetermined depth interval: for example it may be desirable for the area to include the objects located around the target position and whose depth, in the scene, is included in an interval centered on the depth of the target position.
  • FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of obtaining an image of a scene that is sharp throughout, which can be implemented in the present invention.
  • the method 400 shown in FIGURE 4, can be implemented to obtain an image of a scene, clear everywhere, and can be used, in the method according to the invention, and in particular in the method 100 of FIGURE 1, to generate a new image of the scene.
  • method 400 shown in FIGURE 4, may be implemented to obtain the sharp everywhere INP image used in step 300 of FIGURE 3.
  • the sharp image throughout is obtained from a stack of images of the scene, comprising several images, each representing the scene with a different depth of field.
  • the PIL image stack can be obtained either by an imaging device implementing a focus bracketing technique, or by calculation, as described above.
  • the method 400 comprises a step 402 which extracts, for each image from the stack of PIL images, the sharpness zone of said image.
  • Extracting the sharpness zone of an image can be done in different ways. For example, we construct a local focus estimator (one possible implementation is to assimilate it to an energy/variance/entropy operator) that we calculate over the entire surface of all the images. We use the hypothesis that for a given image zone, the estimator is maximal when the image is sharpest. Therefore, we determine for each image in the stack, the region(s) in which the value given by the local estimator is the largest of the entire stack of images. The content of these regions is directly copied into the desired result. By repeating the process for all the zones of all the images, we construct a result that at each point contains the information of the image that was sharpest at that location. [0017] The method 400 comprises a step 404, constructing a sharp image everywhere from the areas extracted during step 402. Indeed, once the sharp area of each image of the stack has been extracted, all the sharp areas thus obtained can be concatenated together.
  • a local focus estimator one possible implementation is to assimilate it to an energy/vari
  • the concatenation may be performed using any known technique.
  • the concatenation may rely on overlapping areas between the sharp areas, and possibly on objects of interest located in said sharp areas.
  • the sharp areas can be concatenated pixel by pixel so as to construct a sharp image throughout.
  • step 406 the clear image everywhere is stored.
  • the sharp image everywhere can be enriched by depth data of the scene.
  • depth data can be stored in association with at least one, in particular each, pixel or object of the scene. This, or these depth data, can be obtained in each of the images of the PIL image stack for example.
  • the image stack can comprise an image, or a map, giving the depth of the scene for different points, and in particular each point of the scene.
  • FIGURE 5 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
  • the method 500 of FIGURE 5 can be used to produce a personalized display of a scene from at least one image of said scene.
  • the method 500 of FIGURE 5 includes all of the steps of the method 100 of FIGURE 1.
  • the method 500 of FIGURE 5 may further comprise an optional step 502 of obtaining a stack of images of the scene, each image representing the scene over a limited depth of field such that only a portion of the scene is clearly represented in said image.
  • the image stack may be acquired by known focus bracketing techniques. Alternatively, the image stack may be obtained computationally, from one or more images of the scene.
  • the image stack may be the image stack PIL of FIGURES 2 and 4.
  • step 108 of obtaining the new image can be carried out in accordance with the example described with reference to FIGURE 2.
  • FIGURE 6 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
  • the method 600 of FIGURE 6 can be used to produce a personalized display of a scene on a display medium from at least one image of said scene.
  • the method 600 of FIGURE 6 includes all of the steps of the method 100 of FIGURE 1.
  • the method 600 of FIGURE 6 may further comprise an optional step 602 of obtaining a clear image throughout.
  • the everywhere sharp image can be obtained by computation from a stack of images.
  • the everywhere sharp image can be obtained by the method 400 of FIGURE 4.
  • the sharp image everywhere can be obtained by calculation from a single image of the scene.
  • step 108 of obtaining the new image can be carried out in accordance with the example described with reference to FIGURE 3.
  • FIGURE 7 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
  • the method 700 of FIGURE 7 can be used to produce a personalized display of a scene from at least one image of said scene. [0038]
  • the method 700 of FIGURE 7 includes all of the steps of the method 600 of FIGURE 6.
  • the method 700 of FIGURE 7 further comprises the optional step 502 of obtaining a stack of images of the scene.
  • FIGURE 8 is a schematic representation of a non-limiting exemplary embodiment of a system according to the present invention.
  • the system 800 of FIGURE 8 may be used to implement the method according to the invention, and in particular any one of the methods 100, 500, 600, or 700 described above.
  • the system 800 includes a display medium 802 used by a first user 804, called a speaker.
  • the first display medium 802 can be of any type, such as an electric display screen or a display surface associated with a projector. In the example described, and without any generality, it is considered that the first display medium 802 is an electronic display screen.
  • the first display support 802 can be associated with at least one sensor 806 to detect:
  • the at least one sensor 806 is a capacitive surface integrated into the display screen 802.
  • the system 800 further comprises a second display medium 810 used by a second user 812, called a participant.
  • a second display medium 810 used by a second user 812, called a participant.
  • the system 800 may comprise one or more second display mediums, each associated to one or more participants.
  • The, or each, second display medium 810 may be of any type, such as an electric display screen or a display surface associated with a projector. In the example described, and without any generality, it is considered that the, or each, second display medium 810 is an electronic display screen.
  • the system 800 comprises an apparatus 820 connected to the display media 802 and 810 and making it possible to generate a personalized display of a scene on the display media 810, and optionally on the display media 802.
  • the apparatus 800 comprises a module 822 carrying out a display of an image of the scene given to it as input.
  • This module 822 is in particular configured/programmed to carry out the display steps 104 and 110 and 112 of the display phase 102.
  • the apparatus 820 further comprises a module 824 for detecting a target position on a current image displayed on the first support 802.
  • This module 822 takes as input a position of a pointer or of a part of the user's body, and determines the target position on the current image displayed on the first display support 802.
  • This module 824 is in particular configured/programmed to carry out step 106.
  • the apparatus 820 further comprises a module 826 for obtaining the new image to be displayed, for example according to any of the techniques above.
  • This module 826 is in particular configured/programmed to carry out step 108.
  • At least one of these modules may be a module independent of the others.
  • At least two of these modules can be integrated within the same module.
  • At least one of these modules may be a hardware module.
  • At least one of these modules may be a software module, such as a computer program.
  • At least one of these modules may be a combination of at least one software module, such as a computer program, and at least one hardware module.
  • at least one of the modules 822-826 can be integrated into an electronic chip, or even into a software application.
  • the device 820 can be any type of device such as a smartphone, a tablet, a computer, a server, a processing unit, a vehicle, etc.
  • the apparatus 820 may be located on the same site as the first display medium 802, or on the same site as the second display medium 810, or on a site remote from the display mediums 802 and 810.
  • the first display medium 802 and the second display medium may be located on the same site or on remote sites.
  • the system 800 comprises a single device 820 common to the display supports 802 and 810.
  • the invention is not limited to this exemplary embodiment.
  • FIGURE 9 is a schematic representation of another non-limiting exemplary embodiment of a system according to the present invention.
  • the system 900 of FIGURE 9 can be used to implement the method according to the invention, and in particular any one of the methods 100, 500, 600, or 700 described above.
  • the system 900 comprises a first apparatus 902 associated with the first display medium 802.
  • the first apparatus 902 comprises the first display medium 902.
  • This first apparatus 902 comprises the modules 822-826 described with reference to the system 800 of FIGURE 8.
  • the system 900 comprises a second apparatus 904 associated with the second display medium 810.
  • the second apparatus 904 comprises the second display medium 810.
  • This second apparatus 904 comprises a display module 906, for example similar or identical to the display module 822, for displaying an image of the scene on the display medium 810.
  • the module 822 located in the first apparatus 902 performs a display of a current image of the scene on the first display medium 802.
  • the target position POS is determined by the module 824 of said first apparatus 902 and the new image is obtained by the module 826 of said first apparatus 902.
  • the new image is transmitted by the first apparatus 902 to the second apparatus 904, wired or wirelessly.
  • the new image received by the second apparatus 904 is displayed by the display module 906 on the second display medium 810.
  • the first and second devices 902 and 904 are in communication, directly or via a communication network.
  • system 900 the new image is obtained in the first device and communicated to the second device.
  • the module 824 for obtaining the new image can be integrated into the second device 904.
  • the first device 902 transmits the target position POS to the second device and the new image is obtained in the second device.
  • the first apparatus 902 can comprise the module 824 for obtaining the new image, and a module for obtaining a new image, similar or identical to said module 824, can be integrated in the second apparatus 904.
  • the first apparatus 902 transmits to the second apparatus the target position POS and the new image is obtained both in the first apparatus 902 and in the second apparatus 904.
  • the first device may be any type of device, such as a smartphone, a tablet, a computer, a television, a video headset, a virtual reality headset, an augmented reality headset, etc.
  • the first device may be a medical imaging device.
  • the first device may be integrated into a vehicle, such as a land vehicle, for example of the car type, or a flying vehicle, for example of the drone, airplane type, etc.
  • the second device can be any type of device, such as a smartphone, a tablet, a computer, a television, a video headset, a virtual reality headset, an augmented reality headset, etc.
  • the second device may be a medical imaging device.
  • the second device can be integrated into a vehicle, such as a land vehicle, for example of the car type, or a flying vehicle, for example of the drone, airplane type, etc.
  • a vehicle such as a land vehicle, for example of the car type, or a flying vehicle, for example of the drone, airplane type, etc.
  • the system according to the invention may be a conference system, or a teleconference system, or a videoconference system, comprising several display media located on the same site or on different sites.
  • Each user may be a speaker or a participant.
  • the system according to the invention can be integrated into a communication system between a person carrying out an observation, monitoring, medical diagnosis, etc., and one or more other persons - the participants - carrying out operations or interventions linked to these observations (in the field of personal safety in urban areas, the signaling of a danger on a road network to a team that must neutralize it, or to one or more road users who must avoid the danger, or a medical worker carrying out a remotely guided intervention).

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method (100) for representing a scene on the basis of at least one image of said scene, the method (100) comprising at least one iteration of a displaying phase (102) comprising the following steps: - displaying (104) an image of the scene (IC), referred to as current image, on a first display medium, - detecting (106), a position, referred to as target position, of interest to a user in the current image (IC), - obtaining (108) an image (IN), referred to as new image, sharply displaying the scene in the target position, - displaying (110) the new image on at least a second display medium viewed by at least a second user. The invention also relates to a computer program and a system implementing such a method.

Description

DESCRIPTION DESCRIPTION

Titre : Procédé et dispositif d'affichage personnalisé d'une scène à partir d'image(s) de ladite scène, sur un support d'affichage Title: Method and device for personalized display of a scene from image(s) of said scene, on a display medium

[0001] La présente invention concerne un procédé de représentation d'une scène permettant un affichage personnalisé d'une scène sur un support d'affichage. Elle concerne également un programme d'ordinateur et un système mettant en œuvre un tel procédé. [0001] The present invention relates to a method for representing a scene allowing a personalized display of a scene on a display medium. It also relates to a computer program and a system implementing such a method.

[0002] Le domaine de l'invention est le domaine de l'affichage d'une image numérique sur un support d'affichage, tel qu'un écran d'affichage ou une surface de projection. [0002] The field of the invention is the field of displaying a digital image on a display medium, such as a display screen or a projection surface.

État de la technique State of the art

[0003] Lorsque l'œil humain parcourt une scène, il observe ladite scène suivant différentes focalisations pour percevoir l'intégralité d'une scène. Les focalisations utilisées pour parcourir une scène dépendent directement de la profondeur des objets se trouvant dans ladite scène. De manière générale, pour observer une partie d'une scène, l'œil humain adapte la focalisation à la profondeur de la scène dans ladite partie, pour obtenir une perception nette de la scène dans ladite zone. [0003] When the human eye scans a scene, it observes said scene according to different focalizations to perceive the entirety of a scene. The focalizations used to scan a scene depend directly on the depth of the objects in said scene. Generally, to observe a part of a scene, the human eye adapts the focalization to the depth of the scene in said part, to obtain a clear perception of the scene in said area.

[0004] Or, les procédés de représentation d'une scène actuellement connus réalisent l'affichage d'une image de ladite scène suivant une seule focalisation, à savoir la focalisation utilisée pour capter ladite image. Lorsque la scène comprend des parties se trouvant à différentes profondeurs, la focalisation correspond à une desdites profondeurs de sorte que seule une des parties de la scène est nette dans l'image affichée. [0004] However, the methods for representing a scene currently known perform the display of an image of said scene according to a single focus, namely the focus used to capture said image. When the scene comprises parts located at different depths, the focus corresponds to one of said depths so that only one of the parts of the scene is clear in the displayed image.

[0005] Un tel affichage donne une représentation très limitée et très statique de la scène. Elle ne s'adapte pas à l'intérêt que peut porter un utilisateur sur telle ou telle partie de la scène représentée sur un support d'affichage. Dans le cas d'un orateur observant la scène, elle ne permet d'adapter l'affichage de ladite scène aux participants, en fonction de la zone sur laquelle l'orateur porte un intérêt. [0005] Such a display gives a very limited and very static representation of the scene. It does not adapt to the interest that a user may have in this or that part of the scene represented on a display medium. In the case of a speaker observing the scene, it does not allow the display of said scene to the participants, depending on the area the speaker is interested in.

[0006] Un but de la présente invention est de remédier à au moins un des inconvénients de l'état de la technique. [0006] An aim of the present invention is to remedy at least one of the drawbacks of the state of the art.

[0007] Un autre but de l'invention est de proposer une solution permettant une représentation d'une scène sur un support d'affichage qui s'adapte plus à une personne observant ladite scène sur ledit support. [0007] Another aim of the invention is to propose a solution allowing a representation of a scene on a display medium which is more suited to a person observing said scene on said medium.

Exposé de l'invention Disclosure of the invention

[0008] L'invention propose d'atteindre au moins l'un des buts précités par un procédé de représentation d'une scène à partir d'au moins une image de ladite scène, ledit procédé comprenant au moins une itération d'une phase d'affichage comprenant les étapes suivantes : [0008] The invention proposes to achieve at least one of the aforementioned aims by a method of representing a scene from at least one image of said scene, said method comprising at least one iteration of a display phase comprising the following steps:

- affichage, sur un premier support d'affichage, d'une image de la scène, dite image courante ; - display, on a first display medium, of an image of the scene, called the current image;

- détection, sur ladite image courante, d'une position, dite position cible à laquelle un premier utilisateur, dit orateur, porte un intérêt ;- detection, on said current image, of a position, called target position in which a first user, called speaker, is interested;

- obtention d'une image, dite nouvelle image, affichant de manière nette ladite scène à ladite position cible ; et - obtaining an image, called a new image, clearly displaying said scene at said target position; and

- affichage de ladite nouvelle image sur au moins un deuxième support d'affichage observé par au moins un deuxième utilisateur, dit participant. - displaying said new image on at least one second display medium observed by at least one second user, called a participant.

[0009] Ainsi, de manière classique, le procédé propose d'afficher une image, dite image courante, de la scène sur un premier support d'affichage. Cette image courante comporte une zone de netteté correspondant à une profondeur de champ donnée : toutes les autres zones de l'image courante sont floues. Le procédé selon l'invention propose en plus de déterminer une position cible à laquelle un orateur, observant l'image courante affichée sur le premier support d'affichage, porte un intérêt. Ensuite, cette position cible est utilisée pour obtenir une autre image de la scène dans laquelle la position cible se trouve dans une zone nette, cette nouvelle image est en quelque sorte une image ajustée ou refocalisée. Cette nouvelle image est ensuite affichée sur au moins un deuxième support observé par un ou plusieurs participants, différents de l'orateur. [0009] Thus, in a conventional manner, the method proposes to display an image, called the current image, of the scene on a first display medium. This current image comprises a sharpness zone corresponding to a given depth of field: all the other zones of the current image are blurred. The method according to the invention also proposes to determine a target position in which a speaker, observing the current image displayed on the first display medium, is interested. Then, this target position is used to obtain another image of the scene in which the target position is in a sharp zone, this new image is in a way an adjusted or refocused image. This new image is then displayed on at least one second medium observed by one or more participants, different from the speaker.

[OO1O] Ainsi, l'affichage de la scène pour chaque participant est personnalisé et s'adapte à la position à laquelle l'orateur porte un intérêt, de sorte que la zone observée par l'orateur est toujours affichée de manière nette pour le participant. En d'autres termes, suivant un exemple de réalisation non limitatif, la zone nette de la scène affichée sur le deuxième support d'affichage pour le participant suit le regard de l'orateur. A la différence de l'état de la technique, la distance de focalisation et optionnellement la profondeur de champ d'une image d'une scène n'est pas statique, s'adapte et s'ajuste en fonction de l'orateur. [OO1O] Thus, the display of the scene for each participant is personalized and adapts to the position in which the speaker is interested, so that the area observed by the speaker is always displayed clearly for the participant. In other words, according to a non-limiting exemplary embodiment, the clear area of the scene displayed on the second display medium for the participant follows the gaze of the speaker. Unlike the prior art, the focusing distance and optionally the depth of field of an image of a scene is not static, adapts and adjusts according to the speaker.

[0011] Ainsi, le ou chaque orateur peut suivre le regard de l'orateur qui navigue dans la scène. [0011] Thus, the or each speaker can follow the gaze of the speaker who navigates in the scene.

[0012] Selon l'invention, chaque support d'affichage peut être tout type de support d'affichage. [0012] According to the invention, each display medium can be any type of display medium.

[0013] Par exemple, le premier support d'affichage, et/ou le deuxième support d'affichage, peut être un écran d'affichage électronique. [0013] For example, the first display medium, and/or the second display medium, may be an electronic display screen.

[0014] Par exemple, le premier support d'affichage, et/ou le deuxième support d'affichage, peut être une surface sur laquelle est projetée une image de la scène, tel que par exemple une surface d'affichage associée à un projecteur, etc. [0014] For example, the first display medium, and/or the second display medium, may be a surface onto which an image of the scene is projected, such as for example a display surface associated with a projector, etc.

[0015] Le premier support d'affichage, et/ou le deuxième support d'affichage, peut être un support d'affichage équipant un appareil participant à la réalisation de la phase d'affichage, tel que : [0015] The first display medium, and/or the second display medium, may be a display medium equipping a device participating in carrying out the display phase, such as:

- un écran d'affichage équipant ledit appareil ; ou - a display screen equipping said device; or

- une surface de projection équipant ledit appareil. - a projection surface equipping said device.

[0016] Le support d'affichage peut être un support indépendant de l'appareil participant à la réalisation de la phase d'affichage, par exemple dans le cadre d'un projecteur projetant les images sur une surface d'affichage. [0016] The display medium may be a medium independent of the device participating in carrying out the display phase, for example in the context of a projector projecting the images onto a display surface.

[0017] Selon des modes de réalisation, la position cible peut être une position ponctuelle sur l'image courante. [0018] Suivant des modes de réalisation, la position cible peut être une zone de l'image courante. [0017] According to embodiments, the target position may be a point position on the current image. [0018] According to embodiments, the target position may be an area of the current image.

[0019] Avantageusement, le procédé selon l'invention peut en outre comprendre une étape d'affichage de la nouvelle image sur le premier support d'affichage. [0019] Advantageously, the method according to the invention can further comprise a step of displaying the new image on the first display medium.

[0020] Ainsi, la représentation de la scène sur le premier support d'affichage s'adapte aussi à la position cible observée par l'orateur. [0020] Thus, the representation of the scene on the first display medium also adapts to the target position observed by the speaker.

[0021] Suivant des modes de réalisation, l'étape d'obtention de la nouvelle image peut être réalisée du côté de l'orateur, et en particulier sur le même site que l'orateur, ladite nouvelle image étant transmise vers le participant. [0021] According to embodiments, the step of obtaining the new image can be carried out on the speaker's side, and in particular on the same site as the speaker, said new image being transmitted to the participant.

[0022] En particulier, lorsque l'invention est mise en œuvre par un système comprenant un premier appareil du côté de l'orateur et un deuxième appareil du côté du participant, alors l'étape d'obtention de la nouvelle image peut être réalisée au niveau, et en particulier par, le premier appareil. [0022] In particular, when the invention is implemented by a system comprising a first apparatus on the speaker side and a second apparatus on the participant side, then the step of obtaining the new image can be carried out at, and in particular by, the first apparatus.

[0023] Suivant des modes de réalisation, l'étape d'obtention de la nouvelle image peut alternativement, ou en plus, être réalisée du côté du participant, et en particulier sur le même site que le participant, ledit procédé comprenant une transmission de la position cible vers le participant. [0023] According to embodiments, the step of obtaining the new image can alternatively, or in addition, be carried out on the participant's side, and in particular on the same site as the participant, said method comprising a transmission of the target position to the participant.

[0024] En particulier, lorsque l'invention est mise en œuvre par un système comprenant un premier appareil du côté de l'orateur et un deuxième appareil du côté du participant, alors l'étape d'obtention de la nouvelle image peut être réalisée au niveau, et en particulier par, le deuxième appareil. [0024] In particular, when the invention is implemented by a system comprising a first apparatus on the speaker side and a second apparatus on the participant side, then the step of obtaining the new image can be carried out at, and in particular by, the second apparatus.

[0025] Suivant des modes de réalisation, l'étape d'obtention de la nouvelle image peut être réalisée ailleurs, par exemple au niveau d'un appareil qui est distant de l'orateur et du participant. [0025] According to embodiments, the step of obtaining the new image can be carried out elsewhere, for example at a device which is remote from the speaker and the participant.

[0026] En particulier, lorsque l'invention est mise en œuvre par un système comprenant un serveur se trouvant à distance de l'orateur et du participant, l'étape d'obtention peut être réalisée au niveau dudit serveur. Dans ce cas, la position cible est transmise audit serveur, et la nouvelle image obtenue au niveau dudit serveur est transmise vers le participant pour affichage, et optionnellement vers l'orateur pour affichage. [0026] In particular, when the invention is implemented by a system comprising a server located at a distance from the speaker and the participant, the obtaining step can be carried out at said server. In this case, the target position is transmitted to said server, and the new image obtained at level of said server is transmitted to the participant for display, and optionally to the speaker for display.

[0027] Suivant des modes de réalisation, l'étape d'obtention de la nouvelle image peut comprendre une génération de la nouvelle image, par calcul. [0027] According to embodiments, the step of obtaining the new image can comprise a generation of the new image, by calculation.

[0028] En effet, la nouvelle image peut être générée à la volée après que la position cible est déterminée. Dans ce cas, la nouvelle image n'existe pas avant que la position cible soit connue. Une fois que la position cible est connue, alors la nouvelle image est générée. [0028] Indeed, the new image can be generated on the fly after the target position is determined. In this case, the new image does not exist before the target position is known. Once the target position is known, then the new image is generated.

[0029] La nouvelle image peut être générée à partir de l'image courante. [0029] The new image can be generated from the current image.

[0030] Par exemple, la nouvelle image peut être générée en rendant floue la zone actuellement nette de l'image courante et en rendant nette la zone comprenant, ou correspondant à, la position cible. [0030] For example, the new image may be generated by blurring the currently sharp area of the current image and sharpening the area comprising, or corresponding to, the target position.

[0031] La nouvelle image peut être générée à partir d'une image source, qui n'est pas l'image courante. [0031] The new image may be generated from a source image, which is not the current image.

[0032] Par exemple, l'image source peut être une image, préalablement obtenue, et représentant la scène de manière nette dans toutes les zones. Dans ce cas, une copie de cette image source est réalisée avec modification de la netteté :1a zone cible est conservée nette et toutes les autres zones sont rendues floues, pour obtenir la nouvelle image. [0032] For example, the source image may be a previously obtained image representing the scene in a clear manner in all areas. In this case, a copy of this source image is made with modification of the sharpness: the target area is kept clear and all the other areas are blurred, to obtain the new image.

[0033] Une telle image source peut être obtenue en prenant plusieurs images de la scène avec différentes profondeurs de champ, par exemple par la technique de focus bracketing. Puis, la zone nette de la scène est sélectionnée dans chaque image. Toutes les zones nettes obtenues à partir de toutes les images peuvent être concaténées pour obtenir une image de la scène nette dans toutes les zones. [0033] Such a source image can be obtained by taking several images of the scene with different depths of field, for example by the focus bracketing technique. Then, the sharp area of the scene is selected in each image. All the sharp areas obtained from all the images can be concatenated to obtain an image of the scene sharp in all areas.

[0034] Une telle image source peut aussi être obtenue, par simulation ou par calcul, à partir d'une modélisation 3D de la scène (géométrie+textures). Dans ce cas, le calcul consiste à synthétiser une image de la scène, qui dans les procédés classiques serait intrinsèquement nette partout, et à la « reflouter » à la volée en fonction de la zone cible, en appliquant une fonction de flou liée à la différence de profondeur entre chaque point de la scène à représenter, et la profondeur de la zone cible. [0035] Suivant des modes de réalisation, l'étape d'obtention de la nouvelle image peut comprendre une étape de sélection de la nouvelle image dans une pile d'images de ladite scène, chacune ayant une zone de netteté différente. [0034] Such a source image can also be obtained, by simulation or by calculation, from a 3D modeling of the scene (geometry + textures). In this case, the calculation consists of synthesizing an image of the scene, which in conventional methods would be intrinsically sharp everywhere, and to "reblur" it on the fly according to the target area, by applying a blur function linked to the difference in depth between each point of the scene to be represented, and the depth of the target area. [0035] According to embodiments, the step of obtaining the new image can comprise a step of selecting the new image from a stack of images of said scene, each having a different sharpness zone.

[0036] Dans ce cas, la nouvelle image n'est pas générée à la volée. Elle existe préalablement à l'identification de la position cible. Ce mode de réalisation permet une plus grande réactivité du procédé selon l'invention. [0036] In this case, the new image is not generated on the fly. It exists prior to the identification of the target position. This embodiment allows greater responsiveness of the method according to the invention.

[0037] Dans ce cas, l'étape d'obtention peut comprendre une identification, dans la pile d'images, de l'image sur laquelle la position cible est représentée de manière nette. Cette image est sélectionnée comme nouvelle image à afficher lors de l'étape d'affichage. [0037] In this case, the obtaining step may comprise an identification, in the image stack, of the image on which the target position is clearly represented. This image is selected as a new image to be displayed during the displaying step.

[0038] L'identification de la nouvelle image dans la pile d'images peut être réalisée de différentes manières. Par exemple, à chaque image de la pile peut être associée une information indiquant la zone nette sur ladite image. Dans ce cas, l'étape d'identification consiste à identifier laquelle des zones nettes comprend la position cible et sélectionner l'image associée à cette zone nette. [0038] The identification of the new image in the image stack can be carried out in different ways. For example, each image in the stack can be associated with information indicating the sharp area on said image. In this case, the identification step consists in identifying which of the sharp areas comprises the target position and selecting the image associated with this sharp area.

[0039] Suivant des modes de réalisation, la pile d'images peut comprendre au moins une image captée par un appareil d'imagerie, telle qu'une caméra. [0039] According to embodiments, the image stack may comprise at least one image captured by an imaging device, such as a camera.

[0040] En particulier, la pile d'images peut avoir été captée par une ou plusieurs caméras, par la mise en œuvre de la technique de focus bracketing fournissant plusieurs images d'une scène, chacune avec une profondeur de champ différente et donc une zone nette différente. [0040] In particular, the image stack may have been captured by one or more cameras, by implementing the focus bracketing technique providing several images of a scene, each with a different depth of field and therefore a different sharp area.

[0041] Suivant des modes de réalisation, la pile d'images peut comprendre au moins une image, obtenue par calcul ou par simulation, à partir d'au moins une autre image. [0041] According to embodiments, the image stack can comprise at least one image, obtained by calculation or by simulation, from at least one other image.

[0042] Cette autre image peut être une image comportant une zone nette et des zones floues. Dans ce cas, le calcul pour obtenir une image de la pile consiste à générer une image comportant une profondeur de champ différente de celle de l'autre image. La zone nette de l'autre image est rendue floue et une autre zone de la scène est rendue nette. Pour cela, le calcul consiste à déterminer le mieux possible la fonction de transfert de l'optique d'origine en fonction de la défocalisation, et à déterminer la fonction de transfert que l'on souhaite simuler au vu de la distance des points à représenter, c'est-à-dire en fonction de la distance de focalisation simulée et de la distance de la zone cible. Classiquement on peut être tenté de retrouver une netteté totale en tous points par inversion de la fonction de transfert optique (déconvolution) avant d'appliquer un refloutage paramétrique. Pour minimiser les artefacts liés au bruit et aux erreurs de modélisation, et la quantité de calculs que la maîtrise de ces effets implique, on s'attache ici à ne calculer qu'une déconvolution incomplète, qui ramène la fonction de transfert de l'optique d'origine à la fonction de transfert que l'on souhaite simuler, elle aussi incomplètement nette sur la majeure partie de l'image. [0042] This other image may be an image comprising a sharp area and blurred areas. In this case, the calculation to obtain an image of the stack consists in generating an image comprising a depth of field different from that of the other image. The sharp area of the other image is made blurred and another area of the scene is made sharp. To do this, the calculation consists in determining as best as possible the transfer function of the original optics as a function of the defocusing, and in determining the transfer function that we wishes to simulate given the distance of the points to be represented, i.e. as a function of the simulated focusing distance and the distance of the target area. Traditionally, one might be tempted to find total sharpness at all points by inverting the optical transfer function (deconvolution) before applying parametric deblurring. To minimize artifacts related to noise and modeling errors, and the amount of calculations that controlling these effects involves, we focus here on calculating only an incomplete deconvolution, which reduces the transfer function of the original optics to the transfer function that we wish to simulate, which is also incompletely sharp over most of the image.

[0043] Cette autre image peut aussi être une image de la scène qui est nette dans toutes les zones, telle que l'image source décrite plus haut. [0043] This other image can also be an image of the scene that is sharp in all areas, such as the source image described above.

[0044] La nouvelle image peut être sélectionnée de plusieurs manières. [0044] The new image can be selected in several ways.

[0045] Suivant des modes de réalisation, la phase d'affichage peut en outre comprendre, après identification de la position cible, une étape d'identification d'un objet se trouvant à la position cible. Dans ce cas, l'obtention de la nouvelle image peut être réalisée en fonction dudit objet. [0045] According to embodiments, the display phase may further comprise, after identification of the target position, a step of identifying an object located at the target position. In this case, obtaining the new image may be carried out as a function of said object.

[0046] En particulier, la sélection de la nouvelle image peut comprendre l'identification de l'image sur laquelle ledit objet est représentée de manière nette. Pour ce faire, chaque image de la pile peut être associée à une information indiquant le ou les objets représenté(s) de manière nette sur ladite image. [0046] In particular, the selection of the new image may comprise the identification of the image on which said object is clearly represented. To do this, each image in the stack may be associated with information indicating the object(s) clearly represented on said image.

[0047] Suivant des modes de réalisation, la phase d'affichage peut comprendre, après identification de la position cible, une étape d'identification d'une zone, dite cible, de la scène comprenant la position cible. Dans ce cas, l'obtention de la nouvelle image peut être réalisée en fonction de ladite zone cible. [0047] According to embodiments, the display phase may comprise, after identification of the target position, a step of identifying a zone, called target, of the scene comprising the target position. In this case, obtaining the new image may be carried out as a function of said target zone.

[0048] En particulier, la sélection de la nouvelle image peut comprendre l'identification de l'image sur laquelle ladite zone cible est nette. Pour ce faire, chaque image de la pile peut être associée à une information indiquant la zone représentée de manière nette sur ladite image. [0049] Suivant des modes de de réalisation, la phase d'affichage peut comprendre une étape de détermination d'une donnée de profondeur de la scène à ladite position cible, la nouvelle image étant obtenue en fonction de ladite donnée profondeur. [0048] In particular, the selection of the new image may comprise the identification of the image on which said target area is in focus. To do this, each image in the stack may be associated with information indicating the area represented in focus on said image. [0049] According to embodiments, the display phase may comprise a step of determining depth data of the scene at said target position, the new image being obtained as a function of said depth data.

[0050] En effet, une fois la position cible identifiée, la profondeur de la scène à ladite position peut être déterminée. L'information de profondeur de la scène au niveau de la position cible peut être calculée à la volée, par exemple par triangulation avec une autre image de la scène. Alternativement, l'information de profondeur de la scène à la position cible peut avoir été mesurée lorsque la scène a été imagée, par des moyens de mesure adéquats, telle qu'une caméra temps de vol, lidar, etc. [0050] Indeed, once the target position has been identified, the depth of the scene at said position can be determined. The depth information of the scene at the target position can be calculated on the fly, for example by triangulation with another image of the scene. Alternatively, the depth information of the scene at the target position may have been measured when the scene was imaged, by suitable measurement means, such as a time-of-flight camera, lidar, etc.

[0051] Cette information de profondeur peut être utilisée, lors de l'étape d'obtention, pour sélectionner la nouvelle image dans une pile d'images : dans ce cas, on identifie l'image pour laquelle la profondeur de champ correspond ou comprend la profondeur de la position cible. Pour ce faire, chaque image de la pile d'image peut être associée à une information indiquant pour ladite image la profondeur de champ de ladite image. [0051] This depth information can be used, during the obtaining step, to select the new image in a stack of images: in this case, the image for which the depth of field corresponds to or includes the depth of the target position is identified. To do this, each image in the image stack can be associated with information indicating for said image the depth of field of said image.

[0052] La position cible sur laquelle l'utilisateur porte un intérêt peut être détectée de différentes manières. [0052] The target position in which the user is interested can be detected in different ways.

[0053] Suivant des modes de réalisation, la position cible peut être entrée manuellement par l'orateur. [0053] According to embodiments, the target position may be manually entered by the speaker.

[0054] Dans ce cas, c'est l'orateur qui sélectionne manuellement la position cible sur l'image courante, par exemple à l'aide d'un pointeur, tel que souris, boule mobile dite trackball, ou pavé directionnel déplaçant un curseur, ou tout autre dispositif d'entrée de position. L'orateur peut également entrer la position cible par sélection tactile sur une surface tactile agencée sur le support d'affichage dans le cas, par exemple, d'un écran d'affichage tactile, ou déportée par rapport au support d'affichage. [0054] In this case, it is the speaker who manually selects the target position on the current image, for example using a pointer, such as a mouse, a trackball, or a directional pad moving a cursor, or any other position input device. The speaker can also enter the target position by touch selection on a touch surface arranged on the display medium in the case, for example, of a touch display screen, or remote from the display medium.

[0055] L'étape de détection de la position cible peut comprendre une détection d'une région zoomée de l'image courante par l'orateur. [0056] En effet, lorsque l'orateur applique un zoom sur une région de l'image courante affichée sur le premier support d'affichage, cela indique probablement qu'il porte attention à la partie de la scène se trouvant dans ladite région zoomée de l'image courante. Dans ce cas, la position cible peut être la région zoomée, ou peut être une position dans ladite région zoomée, tel que par exemple une position centrale de ladite région zoomée. [0055] The step of detecting the target position may comprise a detection of a zoomed region of the current image by the speaker. [0056] Indeed, when the speaker applies a zoom to a region of the current image displayed on the first display medium, this probably indicates that he is paying attention to the part of the scene located in said zoomed region of the current image. In this case, the target position may be the zoomed region, or may be a position in said zoomed region, such as for example a central position of said zoomed region.

[0057] Le zoom peut être appliquée de manière connue : [0057] The zoom can be applied in a known manner:

- de manière tactile par application d'un mouvement, par exemple avec deux doigts. Dans ce cas, la position cible peut être la position équidistante aux positions des doigts appliquant le zoom ;- tactilely by applying a movement, for example with two fingers. In this case, the target position can be the position equidistant from the positions of the fingers applying the zoom;

- à l'aide d'un pointeur entourant la région à zoomer ; - using a pointer surrounding the region to zoom;

- etc. - etc.

[0058] L'étape de détection de la position cible peut comprendre, ou être réalisée, par une détection, par au moins un capteur, d'une position visée par une partie du corps de l'orateur, sur l'image courante. [0058] The step of detecting the target position may comprise, or be carried out, by a detection, by at least one sensor, of a position targeted by a part of the speaker's body, on the current image.

[0059] Dans ce cas, en particulier, ladite partie du corps peut être à distance du premier support d'affichage, et n'entre pas en contact avec ledit premier support d'affichage ou une surface de commande associée. [0059] In this case, in particular, said body part may be at a distance from the first display support, and does not come into contact with said first display support or an associated control surface.

[0060] Cette partie du corps peut être un doigt, ou une main, pointant la position cible sur l'image courante. Dans ce cas, c'est la position visée par le doigt ou la main se trouvant à distance du support d'affichage qui est détectée. [0060] This part of the body can be a finger, or a hand, pointing the target position on the current image. In this case, it is the position aimed at by the finger or the hand located at a distance from the display support which is detected.

[0061] Cette partie du corps peut être un œil, ou les yeux. Dans ce cas, c'est la position visée par l'œil ou les yeux qui est détectée. [0061] This part of the body can be an eye, or the eyes. In this case, it is the position targeted by the eye or eyes that is detected.

[0062] Cette partie du corps peut être un visage. Dans ce cas, l'orientation du visage est détectée et une position visée par un point du visage, par exemple par le centre du visage, est détectée. [0062] This part of the body may be a face. In this case, the orientation of the face is detected and a position aimed at by a point of the face, for example by the center of the face, is detected.

[0063] La position visée par la partie du corps peut être détectée par exemple par au moins un capteur équipant le premier support d'affichage, ou un appareil intégrant le support d'affichage. Le capteur peut alternativement être disposé à distance dudit premier support d'affichage. [0063] The position targeted by the body part may be detected for example by at least one sensor equipping the first display support, or a device integrating the display support. The sensor may alternatively be arranged at a distance from said first display support.

[0064] L'au moins un capteur pour détecter la position peut être un capteur optique, un capteur acoustique, un capteur capacitif, etc. Par exemple, dans le cas où le premier support d'affichage est un écran tactile, alors le capteur peut être un capteur capacitif équipant ledit écran tactile. [0064] The at least one sensor for detecting the position may be an optical sensor, an acoustic sensor, a capacitive sensor, etc. For example, in the case where the first display medium is a touch screen, then the sensor may be a capacitive sensor equipping said touch screen.

[0065] L'au moins un capteur, pour détecter la position d'attention, ou du moins le déplacement de cette position, peut être un capteur d'orientation tel qu'un accéléromètre. Par exemple, dans le cas où le premier support d'affichage est un écran tenu dans les mains de l'orateur ou du participant, un accéléromètre détectant son inclinaison ou ses modifications d'inclinaison par rapport à une inclinaison initiale, ou encore des déplacements en translation dudit support, par exemple par double intégration du signal d'accélération, peut être utilisé pour détecter une modification d'attention, en supposant par exemple que le regard de l'utilisateur représenterait un axe fixe, et que le support serait déplacé par rapport à cet axe d'attention, ou encore que l'attention serait issue d'un axe restant perpendiculaire audit support et passant par l'œil de l'utilisateur, ce qui revient à associer aux variations d'angle du support aussi un déplacement de la zone d'attention. Ce mode de détection peut aussi être utilisé en complément d'autres moyens de détection tels que la distance entre le support et l'œil de l'observateur du support ou encore en complément de l'estimation de la position visée par l'œil. [0066] Bien entendu, d'autres types de capteurs peuvent être utilisés et l'invention n'est pas limitée à un type de capteur spécifique. [0065] The at least one sensor, for detecting the position of attention, or at least the movement of this position, may be an orientation sensor such as an accelerometer. For example, in the case where the first display medium is a screen held in the hands of the speaker or participant, an accelerometer detecting its inclination or its changes in inclination relative to an initial inclination, or even translational movements of said medium, for example by double integration of the acceleration signal, may be used to detect a change in attention, assuming for example that the user's gaze would represent a fixed axis, and that the medium would be moved relative to this axis of attention, or even that the attention would come from an axis remaining perpendicular to said medium and passing through the user's eye, which amounts to associating with the variations in angle of the medium also a movement of the attention zone. This detection mode can also be used in addition to other detection means such as the distance between the support and the eye of the observer of the support or in addition to the estimation of the position targeted by the eye. [0066] Of course, other types of sensors can be used and the invention is not limited to a specific type of sensor.

[0067] La phase d'affichage peut être réitérée autant de fois que souhaitée avec une position cible différente, d'une itération à l'autre. Ainsi, l'orateur peut parcourir une image pour observer différentes parties de l'image, chaque partie étant affichée de manière nette pour le participant lorsqu'elle est observée par l'orateur. Ainsi, la zone de netteté de l'image est ajustée, pour le participant, au fur et à mesure que la scène est parcourue par l'orateur. [0067] The display phase can be repeated as many times as desired with a different target position, from one iteration to another. Thus, the speaker can move through an image to observe different parts of the image, each part being displayed in a sharp manner for the participant when it is observed by the speaker. Thus, the sharpness area of the image is adjusted, for the participant, as the scene is moved through by the speaker.

[0068] Cela permet une navigation plus ergonomique et plus personnalisée dans une image. Surtout cela permet d'observer de manière plus réaliste une scène affichée sur un support d'affichage, comme si ladite scène était réellement devant le participant et/ou l'orateur. [0069] L'invention vient d'être décrite en référence à une représentation de la scène, à un instant donné. Autrement dit, de préférence, l'image courante et la nouvelle image représentent la scène à un même instant. [0068] This allows for more ergonomic and more personalized navigation in an image. Above all, it allows a scene displayed on a display medium to be observed more realistically, as if said scene were actually in front of the participant and/or the speaker. [0069] The invention has just been described with reference to a representation of the scene, at a given instant. In other words, preferably, the current image and the new image represent the scene at the same instant.

[0070] Bien entendu, elle peut être appliquée à une représentation d'une scène à plusieurs instants. Pour cela, la phase d'affichage peut être réitérée pour plusieurs images, ou séries d'images, chacune captée à un instant différent, par exemple faisant partie d'une vidéo. Dans ce cas, chaque image ou série d'images, représente la scène à un instant différent. [0070] Of course, it can be applied to a representation of a scene at several times. For this, the display phase can be repeated for several images, or series of images, each captured at a different time, for example part of a video. In this case, each image or series of images represents the scene at a different time.

[0071] Selon un autre aspect de l'invention, il est proposé un programme d'ordinateur comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par un appareil informatique, mettent en en œuvre toutes les étapes du procédé selon l'invention. [0071] According to another aspect of the invention, there is provided a computer program comprising executable instructions which, when executed by a computing device, implement all the steps of the method according to the invention.

[0072] Le programme d'ordinateur peut être en tout langage informatique, tel que par exemple en langage machine, en C, C++, JAVA, Python, etc. [0072] The computer program may be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.

[0073] Selon un autre aspect de l'invention, il est proposé un système comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. [0073] According to another aspect of the invention, a system is proposed comprising means configured to implement all the steps of the method according to the invention.

[0074] En particulier, le système selon l'invention peut comprendre : [0074] In particular, the system according to the invention may comprise:

- un premier support d'affichage, - a first display support,

- au moins un deuxième support d'affichage, et - at least one second display support, and

- au moins une unité de calcul ; configurés pour mettre en œuvre le procédé selon l'invention - at least one computing unit; configured to implement the method according to the invention

[0075] Suivant un mode de réalisation, le système peut comprendre : [0075] According to one embodiment, the system may comprise:

- un premier appareil équipé d'un premier support d'affichage, se trouvant du côté de l'orateur, et - a first device equipped with a first display support, located on the speaker's side, and

- un deuxième appareil équipé d'un deuxième support d'affichage, se trouvant du côté du participant. Dans ce cas, l'étape d'obtention de la nouvelle image peut être mise en œuvre dans le premier appareil ou dans le deuxième appareil, comme décrit plus haut en référence au procédé selon l'invention. - a second device equipped with a second display support, located on the participant's side. In this case, the step of obtaining the new image can be implemented in the first device or in the second device, as described above with reference to the method according to the invention.

[0076] Suivant un mode de réalisation, le système peut comprendre : [0076] According to one embodiment, the system may comprise:

- un premier appareil équipé d'un premier support d'affichage, se trouvant du côté de l'orateur, - a first device equipped with a first display support, located on the speaker's side,

- un deuxième appareil équipé d'un deuxième support d'affichage, se trouvant du côté du participant, et - a second device equipped with a second display support, located on the participant's side, and

- un serveur se trouvant entre le premier appareil et le deuxième appareil. - a server located between the first device and the second device.

Dans ce cas, l'étape d'obtention de la nouvelle image peut être mise en œuvre dans le premier appareil ou dans le deuxième appareil, ou encore dans le serveur, comme décrit plus haut en référence au procédé selon l'invention. In this case, the step of obtaining the new image can be implemented in the first device or in the second device, or even in the server, as described above with reference to the method according to the invention.

[0077] Suivant un mode de réalisation, le système peut comprendre : [0077] According to one embodiment, the system may comprise:

- un premier support d'affichage, se trouvant du côté de l'orateur,- a first display support, located on the speaker's side,

- un deuxième support d'affichage, se trouvant du côté du participant, et - a second display stand, located on the participant's side, and

- un appareil commun, relié auxdits supports d'affichage. - a common device, connected to said display media.

Dans ce cas, l'étape d'obtention de la nouvelle image est mise en œuvre dans l'appareil et affichée sur le deuxième appareil, et optionnellement sur le premier support d'affichage. In this case, the step of obtaining the new image is implemented in the device and displayed on the second device, and optionally on the first display medium.

[0078] L'appareil commun, ou au moins un ou des premier et deuxième appareils, peut être un appareil utilisateur de type Smartphone, tablette, etc. comprenant un écran d'affichage. Dans ce cas, le moyen de détection peut être ou peut comprendre une surface tactile, en particulier intégrée dans, ou associée à, l'écran d'affichage dudit appareil. [0078] The common device, or at least one or more first and second devices, may be a user device of the Smartphone, tablet, etc. type comprising a display screen. In this case, the detection means may be or may comprise a touch surface, in particular integrated into, or associated with, the display screen of said device.

[0079] L'appareil commun, ou au moins un ou des premier et deuxième appareils, peut être un appareil utilisateur de type ordinateur, comprenant un écran d'affichage. Dans ce cas, le moyen de détection peut être ou peut comprendre une surface tactile, en particulier intégrée dans, ou associée à, l'écran d'affichage dudit ordinateur, ou encore un pointeur déplacé par exemple par une souris, ou un pavé directionnel dudit ordinateur. [0079] The common apparatus, or at least one or more first and second apparatuses, may be a computer-type user apparatus, comprising a display screen. In this case, the detection means may be or may comprise a touch surface, in particular integrated in, or associated with, the display screen of said computer, or a pointer moved for example by a mouse, or a directional pad of said computer.

[0080] L'appareil commun, ou au moins un ou des premier et deuxième appareils, peut être une télévision. Dans ce cas, le moyen de détection peut- être une caméra intégrée dans ladite télévision, détectant le regard et la position de la tête de l'observateur, ou un pointeur déplacé par exemple par une télécommande de ladite télévision. [0080] The common device, or at least one or more first and second devices, may be a television. In this case, the detection means may be a camera integrated into said television, detecting the gaze and the position of the head of the observer, or a pointer moved for example by a remote control of said television.

[0081] L'appareil commun, ou au moins un ou des premier et deuxième appareils, peut être un casque vidéo, un casque de réalité virtuelle ou de réalité augmentée comprenant un écran d'affichage ou un projecteur associé à une surface de projection sur laquelle est projetée chaque image. Dans ce cas, le moyen de détection peut être ou peut comprendre un capteur, en particulier optique, équipant ledit casque. [0081] The common device, or at least one or more first and second devices, may be a video headset, a virtual reality or augmented reality headset comprising a display screen or a projector associated with a projection surface on which each image is projected. In this case, the detection means may be or may comprise a sensor, in particular an optical sensor, equipping said headset.

[0082] L'appareil commun, ou au moins un ou des premier et deuxième appareils, peut être un appareil d'imagerie médical. En particulier, l'appareil peut être un endoscope, un appareil d'échographie, etc. [0082] The common apparatus, or at least one or more first and second apparatuses, may be a medical imaging apparatus. In particular, the apparatus may be an endoscope, an ultrasound apparatus, etc.

[0083] L'appareil commun, ou au moins un ou des premier et deuxième appareils, ou partie de la prise d'image du système mettant en œuvre le procédé, peut être un appareil d'inspection en milieu peu accessible tel une canalisation, ou un endroit présentant un danger particulier (tel une exposition à des radiations ou une zone menaçant de s'écrouler). En particulier, l'appareil peut être un endoscope, un appareil d'échographie, ou une caméra mobile sur un robot, etc. [0083] The common apparatus, or at least one or more first and second apparatuses, or part of the image capture of the system implementing the method, may be an inspection apparatus in a difficult-to-access environment such as a pipeline, or a location presenting a particular danger (such as exposure to radiation or an area threatening to collapse). In particular, the apparatus may be an endoscope, an ultrasound apparatus, or a mobile camera on a robot, etc.

[0084] L'appareil commun, ou au moins un ou des premier et deuxième appareils, peut être disposé, ou intégré, dans un véhicule ou plusieurs véhicules comprenant : [0084] The common apparatus, or at least one or more first and second apparatuses, may be arranged, or integrated, in a vehicle or several vehicles comprising:

- un moyen d'affichage d'une image, et - a means of displaying an image, and

- au moins de détection d'une position cible, - at least detection of a target position,

- au moins un moyen de calcul ; configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. [0085] Le véhicule peut être commun aux premier et deuxième appareils, ou encore lesdits premier et deuxième appareils peuvent être dans des véhicules différents. - at least one calculation means; configured to implement all the steps of the method according to the invention. [0085] The vehicle may be common to the first and second devices, or said first and second devices may be in different vehicles.

[0086] L'appareil commun, ou au moins le premier appareil, peut être disposé, ou intégré, dans un dispositif de prise d'au moins une ou de plusieurs images de surveillance vidéo, telle une caméra vidéo surveillant, par exemple de façon non exhaustive, un trafic routier ou un environnement urbain, ou des locaux à protéger, ou encore un lieu recevant du public ou une assemblée de personnes, ou une salle de conférence. [0086] The common device, or at least the first device, may be arranged, or integrated, in a device for taking at least one or more video surveillance images, such as a video camera monitoring, for example in a non-exhaustive manner, road traffic or an urban environment, or premises to be protected, or even a place receiving the public or a gathering of people, or a conference room.

[0087] Le deuxième appareil peut être un intégré dans un véhicule, ou être un smartphone ou encore un ordinateur, ou un écran de visualisation. [0087] The second device may be integrated into a vehicle, or be a smartphone or even a computer, or a display screen.

[0088] Ainsi, pour l'ensemble de ces exemples d'implémentation, lesdits premier et deuxième appareils peuvent être de type différent, ou intégrés dans des objets différents, toutes les combinaisons sont possibles telle de manière non limitative le premier appareil intégré dans un smartphone, ou dans un endoscope, et le second appareil intégré dans un ordinateur ou dans un véhicule, par exemple. [0088] Thus, for all of these implementation examples, said first and second devices may be of different types, or integrated into different objects, all combinations are possible such as, in a non-limiting manner, the first device integrated into a smartphone, or into an endoscope, and the second device integrated into a computer or into a vehicle, for example.

[0089] Suivant des modes de réalisation, au moins une image de la scène peut être une image 2D. En particulier, l'image courante est une image 2D. En particulier, la nouvelle image est une image 2D. [0089] According to embodiments, at least one image of the scene can be a 2D image. In particular, the current image is a 2D image. In particular, the new image is a 2D image.

[0090] Le cas échéant la pile d'images comprend au moins une image 2D. En particulier, chaque image de la pile d'images est une image 2D. [0090] Where applicable, the image stack comprises at least one 2D image. In particular, each image in the image stack is a 2D image.

[0091] Le cas échant l'image nette partout est une image 2D. [0091] If applicable the clear image everywhere is a 2D image.

[0092] Suivant des modes de réalisation, au moins une image de la scène est une image 3D. En particulier, l'image courante est une image 3D. En particulier, la nouvelle image est une image 3D (donc comportant un champ de profondeurs). [0092] According to embodiments, at least one image of the scene is a 3D image. In particular, the current image is a 3D image. In particular, the new image is a 3D image (therefore comprising a depth field).

[0093] Le cas échéant la pile d'images comprend au moins une image 3D. En particulier, chaque image de la pile d'images est une image 3D. [0093] Where applicable, the image stack comprises at least one 3D image. In particular, each image in the image stack is a 3D image.

[0094] Le cas échant l'image nette partout est une image 3D. Description des figures et modes de réalisation [0094] If applicable the clear image everywhere is a 3D image. Description of figures and embodiments

[0095] D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée de modes de réalisation nullement limitatifs, et des dessins annexés sur lesquels : [0095] Other advantages and characteristics will appear on examining the detailed description of non-limiting embodiments, and the attached drawings in which:

- la FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon l'invention ; - FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention;

- les FIGURES 2 et 3 sont des représentations schématiques d'exemples de réalisation non limitatifs d'une étape d'obtention d'une nouvelle image pouvant être mise en œuvre dans la présente invention ; - FIGURES 2 and 3 are schematic representations of non-limiting exemplary embodiments of a step of obtaining a new image that can be implemented in the present invention;

- la FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'obtention d'une image nette partout ;- FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of obtaining a clear image everywhere;

- les FIGURES 5-7 sont des représentations schématiques d'autres exemples de réalisation non limitatifs d'un procédé selon l'invention ; et - FIGURES 5-7 are schematic representations of other non-limiting exemplary embodiments of a method according to the invention; and

- les FIGURE 8-9 sont des représentations schématiques d'exemples de réalisation non limitatifs d'un système selon l'invention ; et- FIGURES 8-9 are schematic representations of non-limiting exemplary embodiments of a system according to the invention; and

[0096] Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si c’est cette partie qui est uniquement suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. [0096] It is understood that the embodiments that will be described below are in no way limiting. In particular, it will be possible to imagine variants of the invention comprising only a selection of features described below isolated from the other features described, if this selection of features is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. This selection comprises at least one preferably functional feature without structural details, or with only part of the structural details if it is this part that is only sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art.

[0097] En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. [0098] Sur les figures et dans la suite de la description, les éléments communs à plusieurs figures conservent la même référence. [0097] In particular, all the variants and all the embodiments described can be combined with each other if nothing prevents this combination from a technical point of view. [0098] In the figures and in the remainder of the description, the elements common to several figures retain the same reference.

[0099] La FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon la présente invention. [0099] FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.

[0100] Le procédé 100 de la FIGURE 1 peut être utilisé pour réaliser un affichage personnalisé d'une scène à partir d'image(s) de ladite scène. [0100] The method 100 of FIGURE 1 can be used to produce a personalized display of a scene from image(s) of said scene.

[0101] Le procédé 100 comprend une phase d'affichage 102 permettant l'affichage de manière nette, et à la volée, une zone d'une scène à partir d'au moins une image de ladite scène. [0101] The method 100 comprises a display phase 102 allowing the clear display, on the fly, of an area of a scene from at least one image of said scene.

[0102] La phase d'affichage 102 comprend une étape 104 lors de laquelle une image IC de la scène est affichée sur un premier support d'affichage. Cette image courante IC est appelée image courante dans la suite. [0102] The display phase 102 comprises a step 104 during which an image IC of the scene is displayed on a first display medium. This current image IC is called current image in the following.

[0103] Le premier support d'affichage peut être un écran électronique, et en particulier un écran tactile. Le premier support d'affichage peut alternativement être une surface d'affichage, tel qu'un mur, un tableau, un panneau ou une toile, sur laquelle est projetée l'image, par exemple par un projecteur. [0103] The first display medium may be an electronic screen, and in particular a touch screen. The first display medium may alternatively be a display surface, such as a wall, a board, a panel or a canvas, onto which the image is projected, for example by a projector.

[0104] Ce premier support d'affichage est observé par un premier utilisateur. Dans la suite, et sans perte de généralité, ce premier utilisateur est appelé « orateur ». [0104] This first display medium is observed by a first user. In the following, and without loss of generality, this first user is called a “speaker”.

[0105] L'image courante IC peut être une captée par un appareil d'imagerie, telle qu'une caméra, ou un module caméra. L'image courante peut aussi être une image générée par calcul. L'image courante affichée sur le premier support d'affichage comporte une profondeur de champ donnée de sorte qu'une région de la scène est affichée de manière nette et le reste de la scène est affiché de manière floue. [0105] The current image IC may be one captured by an imaging device, such as a camera, or a camera module. The current image may also be an image generated by calculation. The current image displayed on the first display medium has a given depth of field such that a region of the scene is displayed sharply and the rest of the scene is displayed blurred.

[0106] La phase d'affichage 102 comprend une étape 106 de détection, sur l'image courante IC, d'une position cible POS de la scène sur laquelle l'orateur porte son attention. [0107] Cette position cible POS peut être une position ponctuelle, ou une zone ne se limitant pas à une position ponctuelle. [0106] The display phase 102 comprises a step 106 of detecting, on the current image IC, a target position POS of the scene on which the speaker is focusing his attention. [0107] This target position POS can be a point position, or an area not limited to a point position.

[0108] La position cible POS peut être détectée de différentes manières dont quelques exemples non limitatifs sont donnés plus haut. [0108] The target position POS can be detected in different ways, some non-limiting examples of which are given above.

[0109] En particulier, la position cible POS peut être sélectionnée avec un pointeur, de type souris ou similaire. Dans ce cas, l'orateur déplace le pointeur sur la position cible souhaitée. [0109] In particular, the target position POS can be selected with a pointer, such as a mouse or the like. In this case, the speaker moves the pointer to the desired target position.

[0110] La position cible POS peut être une position indiquée par une partie du corps de l'orateur, tel qu'un doigt ou une main, par contact sur une surface tactile, intégrée ou non au premier support d'affichage. Par exemple, la position cible POS peut être indiquée par contact sur un écran tactile formant le premier support d'affichage. [0110] The target position POS may be a position indicated by a part of the speaker's body, such as a finger or a hand, by contact on a touch-sensitive surface, integrated or not in the first display medium. For example, the target position POS may be indicated by contact on a touch screen forming the first display medium.

[OUI] La position cible POS peut être une position visée par une partie du corps de l'orateur, telle qu'un doigt, une main, un œil, les yeux ou le visage de l'orateur, qui n'entre pas en contact avec le premier support d'affichage. Dans ce cas, la position visée par ladite partie du corps de l'orateur sur l'image courante IC, et donc sur le premier support d'affichage, peut être détectée de toute les manières connues, par exemple par au moins un capteur, intégré ou non au premier support d'affichage, tel qu'un capteur capacitif, une caméra, etc. [YES] The target position POS may be a position aimed at by a part of the speaker's body, such as a finger, a hand, an eye, the eyes or the face of the speaker, which does not come into contact with the first display medium. In this case, the position aimed at by said part of the speaker's body on the current image IC, and therefore on the first display medium, may be detected in any known manner, for example by at least one sensor, integrated or not in the first display medium, such as a capacitive sensor, a camera, etc.

[0112] Une fois que la position cible POS est connue, on sait alors quelle partie de la scène doit être affichée de manière nette. [0112] Once the target position POS is known, we then know which part of the scene should be displayed sharply.

[0113] La phase d'affichage 102 comprend une étape 108 d'obtention d'une nouvelle image affichant de manière nette la scène au niveau de la position cible POS, ou une zone cible de la scène comprenant ladite position cible POS. De préférence, cette nouvelle image représente la scène au même instant que l'image courante. Alternativement, cette nouvelle image peut représenter la scène à un autre instant que l'image courante, tel que par exemple à un instant suivant ou à un instant postérieur. [0113] The display phase 102 comprises a step 108 of obtaining a new image clearly displaying the scene at the target position POS, or a target area of the scene comprising said target position POS. Preferably, this new image represents the scene at the same time as the current image. Alternatively, this new image may represent the scene at a time other than the current image, such as for example at a following time or at a later time.

[0114] Des exemples non limitatifs d'obtention d'une telle image sont décrits dans la suite, par exemple en référence aux FIGURES 2 et 3. [0115] La phase d'affichage 102 comprend une étape 110 d'affichage de la nouvelle image sur au moins un deuxième support. [0114] Non-limiting examples of obtaining such an image are described below, for example with reference to FIGURES 2 and 3. [0115] The display phase 102 comprises a step 110 of displaying the new image on at least one second medium.

[0116] Le, ou chaque, deuxième support d'affichage peut être un écran électronique, et en particulier un écran tactile. Le, ou chaque, deuxième support d'affichage peut alternativement être une surface d'affichage, tel qu'un mur, un tableau, un panneau ou une toile, sur laquelle est projetée l'image, par exemple par un projecteur. [0116] The, or each, second display medium may be an electronic screen, and in particular a touch screen. The, or each, second display medium may alternatively be a display surface, such as a wall, a board, a panel or a canvas, onto which the image is projected, for example by a projector.

[0117] Le, ou chaque, deuxième support d'affichage est observé par au moins un deuxième utilisateur. Dans la suite, et sans perte de généralité, ce deuxième utilisateur est appelé « participant ». [0117] The, or each, second display medium is observed by at least one second user. In the following, and without loss of generality, this second user is called a “participant”.

[0118] De manière optionnelle, mais avantageuse, la phase d'affichage 102 peut en outre comprendre une étape 112 d'affichage de la nouvelle image sur le premier support d'affichage. Les étapes 110 et 112 peuvent être réalisées à tour de rôle, dans un ordre quelconque, ou en même temps. [0118] Optionally, but advantageously, the display phase 102 may further comprise a step 112 of displaying the new image on the first display medium. Steps 110 and 112 may be performed in turn, in any order, or at the same time.

[0119] Suivant des modes de réalisation, l'étape 108 d'obtention de la nouvelle image peut être réalisée du côté de l'orateur, et en particulier sur le même site que l'orateur, ladite nouvelle image étant transmise vers le participant. En particulier, lorsque l'invention est mise en œuvre par un système comprenant un premier appareil du côté de l'orateur et un deuxième appareil du côté du participant, alors l'étape 108 d'obtention de la nouvelle image peut être réalisée au niveau, et en particulier par, le premier appareil. [0120] Alternativement, ou en plus, l'étape 108 d'obtention de la nouvelle image peut être réalisée du côté du participant, et en particulier sur le même site que le participant. Dans ce cas, la position cible POS est transmise vers le participant pour la réalisation de l'étape 108. En particulier, lorsque l'invention est mise en œuvre par un système comprenant un premier appareil du côté de l'orateur et un deuxième appareil du côté du participant, alors l'étape 108 d'obtention de la nouvelle image peut être réalisée au niveau, et en particulier par, le deuxième appareil. [0119] According to embodiments, the step 108 of obtaining the new image can be carried out on the speaker's side, and in particular on the same site as the speaker, said new image being transmitted to the participant. In particular, when the invention is implemented by a system comprising a first apparatus on the speaker's side and a second apparatus on the participant's side, then the step 108 of obtaining the new image can be carried out at, and in particular by, the first apparatus. [0120] Alternatively, or in addition, the step 108 of obtaining the new image can be carried out on the participant's side, and in particular on the same site as the participant. In this case, the target position POS is transmitted to the participant for carrying out step 108. In particular, when the invention is implemented by a system comprising a first device on the speaker side and a second device on the participant side, then step 108 of obtaining the new image can be carried out at, and in particular by, the second device.

[0121] Suivant des modes de réalisation, l'étape 108 d'obtention de la nouvelle image peut être réalisée ailleurs, par exemple au niveau d'un appareil qui est distant de l'orateur et du participant. En particulier, lorsque l'invention est mise en œuvre par un système comprenant un serveur se trouvant à distance de l'orateur et du participant, l'étape 108 d'obtention peut être réalisée au niveau dudit serveur. Dans ce cas, la position cible POS est transmise audit serveur, et la nouvelle image obtenue au niveau dudit serveur est transmise vers l'orateur, et optionnellement vers le participant. [0121] According to embodiments, the step 108 of obtaining the new image can be carried out elsewhere, for example at a device that is remote from the speaker and the participant. In particular, when the invention is implemented by a system comprising a server located at a distance from the speaker and the participant, the obtaining step 108 can be carried out at said server. In this case, the target position POS is transmitted to said server, and the new image obtained at said server is transmitted to the speaker, and optionally to the participant.

[0122] L'exemple de réalisation du procédé vient d'être décrit en référence à un seul participant. Bien sûr, la phase d'affichage peut être réalisée pour plusieurs participants, pour un même orateur. Dans ce cas, l'étape 110 d'affichage est réalisée de manière commune pour plusieurs participants lorsque le deuxième support d'affichage est commun à plusieurs participants, ou individuellement pour chaque participant lorsqu'un deuxième support d'affichage est associé à chaque participant. [0122] The exemplary embodiment of the method has just been described with reference to a single participant. Of course, the display phase can be carried out for several participants, for the same speaker. In this case, the display step 110 is carried out in a common manner for several participants when the second display medium is common to several participants, or individually for each participant when a second display medium is associated with each participant.

[0123] La phase d'affichage 102 peut être réitérée autant de fois que souhaitée pour changer l'affichage de la scène, et en particulier pour changer la zone de la scène affichée de manière nette. [0123] The display phase 102 can be repeated as many times as desired to change the display of the scene, and in particular to change the area of the scene displayed clearly.

[0124] La phase d'affichage 102 peut être réalisée à chaque fois que l'orateur choisit, ou valide, une nouvelle position cible. [0124] The display phase 102 can be carried out each time the speaker chooses, or validates, a new target position.

[0125] Alternativement, la phase d'affichage 102 peut être réalisée de manière continue, par exemple : [0125] Alternatively, the display phase 102 can be carried out continuously, for example:

- dès que la position d'un pointeur déplacé par l'orateur change,- as soon as the position of a pointer moved by the speaker changes,

- dès que la position visée sur l'image courante par un doigt, et plus généralement par une partie du corps, de l'orateur change ; ou encore - as soon as the position aimed at on the current image by a finger, and more generally by a part of the body, of the speaker changes; or again

- dès que la position de contact d'un doigt ou d'une main de l'orateur change. - as soon as the contact position of a finger or hand of the speaker changes.

[0126] Dans certains modes de réalisation, la nouvelle image affichée lors de l'étape 110, et optionnellement lors de l'étape 112, peut être utilisée comme image courante pour l'itération suivante de la phase d'affichage 102. Dans ce cas, l'étape 112 peut être confondue avec l'étape 104, en particulier lorsque la phase d'affichage 102 est itérée à plusieurs reprises pour la même scène. En effet, dans ce cas, la nouvelle image IN peut être l'image courante IC pour la prochaine itération de la phase d'affichage 102. [0127] La FIGURE 2 est une représentation schématique d'un premier exemple de réalisation non limitatif d'une étape d'obtention d'une nouvelle image, pouvant être mise en œuvre dans la présente invention. [0126] In some embodiments, the new image displayed during step 110, and optionally during step 112, can be used as the current image for the next iteration of the display phase 102. In this case, step 112 can be confused with step 104, in particular when the display phase 102 is iterated several times for the same scene. Indeed, in this case, the new image IN can be the current image IC for the next iteration of the display phase 102. [0127] FIGURE 2 is a schematic representation of a first non-limiting exemplary embodiment of a step of obtaining a new image, which can be implemented in the present invention.

[0128] L'étape 200, représentée sur la FIGURE 2, peut être mise en œuvre pour obtenir une nouvelle image à afficher, à partir d'une position cible POS, dans le procédé selon l'invention, et en particulier dans le procédé 100 de la FIGURE 1. [0128] Step 200, shown in FIGURE 2, can be implemented to obtain a new image to be displayed, from a target position POS, in the method according to the invention, and in particular in the method 100 of FIGURE 1.

[0129] L'étape 200 peut être, ou peut être comprise dans, l'étape 108 du procédé 100 de la FIGURE 1. [0129] Step 200 may be, or may be included in, step 108 of method 100 of FIGURE 1.

[0130] Dans l'exemple représentée, la nouvelle image est sélectionnée à partir d'une pile d'images PIL de la scène. Chacune des images de la pile d'images représente la scène avec une profondeur de champ différente. Ainsi, chaque image de la pile PIL représente la scène mais sur chaque image une partie différente de la scène est nette et toutes les autres parties de la scène sont floues. A chaque image peut être associée au moins une des données suivantes : [0130] In the example shown, the new image is selected from a stack of PIL images of the scene. Each of the images in the stack of images represents the scene with a different depth of field. Thus, each image in the PIL stack represents the scene but on each image a different part of the scene is sharp and all other parts of the scene are blurred. Each image can be associated with at least one of the following data:

- une donnée indiquant la zone de l'image qui est nette, par exemple avec des coordonnées délimitant ladite zone, - data indicating the area of the image that is in focus, for example with coordinates delimiting said area,

- un ou des objets qui sont affichées de manière nette dans l'image, par exemple en indiquant un identifiant pour ces objets, ou la position de ces objets, et/ou - one or more objects that are displayed clearly in the image, for example by indicating an identifier for these objects, or the position of these objects, and/or

- la profondeur de champ de l'image. - the depth of field of the image.

Dans la suite, et sans perte de généralité, on considère que chaque image est associée à une donnée indiquant la profondeur de champ de l'image, ladite profondeur de champ indiquant ainsi la partie de la scène qui est représentée de manière nette sur l'image. In the following, and without loss of generality, we consider that each image is associated with data indicating the depth of field of the image, said depth of field thus indicating the part of the scene which is clearly represented on the image.

[0131] La pile d'images PIL peut être acquise par des techniques connues de focus bracketing, également appelé « empilement de mise au point » en langue française, avec un appareil d'imagerie. De manière résumée, l'appareil d'imagerie est commandée pour obtenir plusieurs images d'une même scène les unes à la suite des autres. Entre chaque image, le focus de l'appareil est modifié pour que chaque image soit acquise avec un focus différent, et donc avec une profondeur de champ différente. [0131] The PIL image stack can be acquired by known focus bracketing techniques, also called "focus stacking" in French, with an imaging device. In summary, the imaging device is controlled to obtain several images of the same scene one after the other. Between each image, the focus of the device is modified so that each image is acquired with a different focus, and therefore with a different depth of field.

[0132] Bien entendu, la pile d'images PIL peut être obtenue par calcul, à partir d'une ou plusieurs images de la scène. [0132] Of course, the PIL image stack can be obtained by calculation, from one or more images of the scene.

[0133] Lors d'une étape 204, la profondeur associée à la position cible POS, dans la scène, est déterminée. Cette position cible POS a été préalablement déterminée, par exemple lors de l'étape 106. [0133] During a step 204, the depth associated with the target position POS, in the scene, is determined. This target position POS has been previously determined, for example during step 106.

[0134] Cette profondeur peut avoir été mesurée, par un ou des capteurs, lorsque la scène est imagée et mémorisée. Une telle mesure peut par exemple être réalisée par des capteurs tels que des capteurs lidar, ou caméra temps de vol, etc. Dans ce cas, la donnée de profondeur est lue lors de l'étape 204. [0135] Alternativement, la profondeur peut être calculée, par exemple par des techniques de triangulation, à partir d'au moins deux images de la scène. Ces techniques de calcul par triangulation sont bien connues et ne seront donc pas détaillées ici. Dans ce cas, la donnée de profondeur est calculée à l'étape 204, ou lue lorsque le calcul a été réalisée préalablement. [0134] This depth may have been measured, by one or more sensors, when the scene is imaged and stored. Such a measurement may for example be carried out by sensors such as lidar sensors, or time-of-flight cameras, etc. In this case, the depth data is read during step 204. [0135] Alternatively, the depth may be calculated, for example by triangulation techniques, from at least two images of the scene. These triangulation calculation techniques are well known and will therefore not be detailed here. In this case, the depth data is calculated in step 204, or read when the calculation has been carried out previously.

[0136] Lors d'une étape 206, la profondeur de la position cible POS est comparée à la donnée associée à chaque image de la pile 202, et indiquant la profondeur de champ, c'est-à-dire un intervalle de distances auxquelles un point de la scène est obtenu de façon suffisamment nette sur l'image, dans ladite image. [0136] During a step 206, the depth of the target position POS is compared to the data associated with each image of the stack 202, and indicating the depth of field, that is to say an interval of distances at which a point of the scene is obtained in a sufficiently clear manner on the image, in said image.

[0137] Lorsque la profondeur de la position cible POS est comprise dans la profondeur de champ associée à une image de la pile d'images PIL, cette image de la pile est sélectionnée, lors d'une étape 206, comme nouvelle image. En effet, comme la profondeur de la position cible se trouve dans la profondeur de champ de cette image de la pile, cela veut dire qu'une partie de la scène, comprenant la position cible, est représentée de manière nette sur cette image. [0137] When the depth of the target position POS is included in the depth of field associated with an image of the stack of images PIL, this image of the stack is selected, during a step 206, as a new image. Indeed, as the depth of the target position is in the depth of field of this image of the stack, this means that a part of the scene, including the target position, is represented clearly on this image.

[0138] L'image de la pile peut ainsi être sélectionnée comme nouvelle image. [0139] Eventuellement, elle peut être traitée lors d'une étape de traitement d'image optionnelle 208. [0140] Dans l'exemples décrit en référence à la FIGURE 2, la nouvelle image est obtenue à partir de la profondeur associée à la position cible. [0138] The image of the stack can thus be selected as a new image. [0139] Optionally, it can be processed during an optional image processing step 208. [0140] In the example described with reference to FIGURE 2, the new image is obtained from the depth associated with the target position.

[0141] Bien entendu d'autres modes de réalisation sont possibles. Par exemple, il est possible d'identifier un objet se trouvant à la position cible, ou il est possible d'identifier une zone cible comprenant la position cible. L'obtention de la nouvelle image peut alors être réalisée en fonction dudit objet identifié, ou de ladite zone cible identifiée. Dans ce cas, dans la pile d'images PIL, la nouvelle image est identifiée et sélectionnée lors des étapes 204 et 206, en fonction d'un identifiant dudit objet, ou de ladite zone cible. [0141] Of course, other embodiments are possible. For example, it is possible to identify an object located at the target position, or it is possible to identify a target area comprising the target position. Obtaining the new image can then be carried out as a function of said identified object, or of said identified target area. In this case, in the PIL image stack, the new image is identified and selected during steps 204 and 206, as a function of an identifier of said object, or of said target area.

[0142] Suivant d'autres modes, il est possible de comparer les coordonnées de la position cible POS à une zone affichée de manière nette dans chaque image. Si la position cible se trouve dans la zone nette d'une image se trouvant dans la pile d'images PIL, alors ladite image est sélectionnée comme nouvelle image à afficher. [0142] According to other modes, it is possible to compare the coordinates of the target position POS to an area displayed in sharpness in each image. If the target position is in the sharp area of an image in the image stack PIL, then said image is selected as the new image to be displayed.

[0143] La FIGURE 3 est une représentation schématique d'un deuxième exemple de réalisation non limitatif d'une étape d'obtention d'une nouvelle image, pouvant être mise en œuvre dans la présente invention. [0143] FIGURE 3 is a schematic representation of a second non-limiting exemplary embodiment of a step of obtaining a new image, which can be implemented in the present invention.

[0144] L'étape 300, représentée sur la FIGURE 3, peut être mise en œuvre pour obtenir une nouvelle image à afficher, à partir d'une position cible, dans le procédé selon l'invention, et en particulier dans le procédé 100 de la FIGURE 1. [0144] Step 300, shown in FIGURE 3, can be implemented to obtain a new image to be displayed, from a target position, in the method according to the invention, and in particular in the method 100 of FIGURE 1.

[0001] L'étape 300 peut être, ou peut être comprise dans, l'étape 108 du procédé 100 de la FIGURE 1. [0001] Step 300 may be, or may be included in, step 108 of method 100 of FIGURE 1.

[0002] Dans l'exemple représentée, la nouvelle image IN est générée, à la volée, à partir d'une image INP de la scène, nette partout. Autrement dit, dans l'image nette partout INP, la profondeur de champ couvre potentiellement toute la profondeur de la scène. [0002] In the example shown, the new IN image is generated, on the fly, from an INP image of the scene, sharp everywhere. In other words, in the sharp everywhere INP image, the depth of field potentially covers the entire depth of the scene.

[0003] Une telle image INP nette sur toute la scène peut être obtenue de différentes manières. [0003] Such a sharp INP image across the entire scene can be obtained in various ways.

[0004] Suivant un exemple de réalisation, l'image nette partout INP peut être obtenue par assemblage d'images d'une pile d'images, ayant chacune une zone de netteté limitée de la scène, telle que par exemple la pile d'images[0004] According to an exemplary embodiment, the everywhere clear image INP can be obtained by assembling images from a stack of images, each having a limited area of sharpness in the scene, such as the image stack

PIL. PIL.

[0005] Suivant un autre exemple de réalisation, l'image nette partout INP peut être obtenue par calcul, à partir d'une seule image de la scène. [0005] According to another exemplary embodiment, the sharp image everywhere INP can be obtained by calculation, from a single image of the scene.

[0006] Un exemple non limitatif d'obtention d'une image nette partout sera décrit plus loin, en particulier en référence à la FIGURE 4. [0006] A non-limiting example of obtaining a sharp image everywhere will be described later, in particular with reference to FIGURE 4.

[0007] L'étape 300 peut comprendre, de manière optionnelle, l'étape 202 déterminant la profondeur de la scène au niveau de la position cible POS, tel que décrit plus haut. [0007] Step 300 may optionally include step 202 determining the depth of the scene at the target position POS, as described above.

[0008] Lors d'une étape 302, une zone de l'image nette partout IM est sélectionnée, cette zone comprenant la position cible POS. Cette zone peut être sélectionnée de manière arbitraire, tant qu'elle contient la position cible. Alternativement, cette zone peut être sélectionnée, suivant une règle prédéterminée : par exemple, elle peut correspondre au centre d'une zone de taille et de forme prédéterminée. Suivant encore, une autre alternative, cette zone peut être sélectionnée, en fonction d'un ou des objets se trouvant au niveau de la position cible. Suivant encore une autre alternative, cette zone peut être sélectionnée suivant une carte de profondeur de la scène autour de de la position, et d'un intervalle de profondeur prédéterminé : par exemple il peut être souhaitable que la zone comprenne les objets se trouvant autour de la position cible et dont la profondeur, dans la scène, est comprise dans un intervalle centré sur la profondeur de la position cible. [0008] In a step 302, an area of the sharp image everywhere IM is selected, this area comprising the target position POS. This area can be selected arbitrarily, as long as it contains the target position. Alternatively, this area can be selected, according to a predetermined rule: for example, it can correspond to the center of an area of predetermined size and shape. According to yet another alternative, this area can be selected, according to one or more objects located at the target position. According to yet another alternative, this area can be selected according to a depth map of the scene around the position, and a predetermined depth interval: for example it may be desirable for the area to include the objects located around the target position and whose depth, in the scene, is included in an interval centered on the depth of the target position.

[0009] Lors d'une étape 304, l'image nette partout IM est floutée partout, sauf dans la zone sélectionnée lors de l'étape 302. Ce floutage peut être réalisée par toute technique connue. L'image ainsi obtenue est utilisée comme nouvelle image, éventuellement après une étape optionnelle 306 de traitement d'image. [0010] La FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'obtention d'une image d'une scène nette partout, pouvant être mis en œuvre dans la présente invention. [0009] In a step 304, the everywhere clear image IM is blurred everywhere, except in the area selected in step 302. This blurring can be carried out by any known technique. The image thus obtained is used as a new image, possibly after an optional image processing step 306. [0010] FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of obtaining an image of a scene that is sharp throughout, which can be implemented in the present invention.

[0011] Le procédé 400, représenté sur la FIGURE 4, peut être mise en œuvre pour obtenir une image d'une scène, nette partout, et pouvant être utilisée, dans le procédé selon l'invention, et en particulier dans le procédé 100 de la FIGURE 1, pour générer une nouvelle image de la scène. [0011] The method 400, shown in FIGURE 4, can be implemented to obtain an image of a scene, clear everywhere, and can be used, in the method according to the invention, and in particular in the method 100 of FIGURE 1, to generate a new image of the scene.

[0012] Plus particulièrement, le procédé 400, représenté sur la FIGURE 4, peut être mise en œuvre pour obtenir l'image nette partout INP utilisée lors de l'étape 300 de la FIGURE 3. [0012] More particularly, method 400, shown in FIGURE 4, may be implemented to obtain the sharp everywhere INP image used in step 300 of FIGURE 3.

[0013] Dans l'exemple représenté sur la FIGURE 4, l'image nette partout est obtenue à partir d'une pile d'images de la scène, comprenant plusieurs images, chacune représentant la scène avec une profondeur de champ différente. [0013] In the example shown in FIGURE 4, the sharp image throughout is obtained from a stack of images of the scene, comprising several images, each representing the scene with a different depth of field.

[0014] La pile d'images PIL peut être obtenue soit par un appareil d'imagerie mettant en œuvre une technique de focus bracketing, soit par calcul, tel que décrit plus haut. [0014] The PIL image stack can be obtained either by an imaging device implementing a focus bracketing technique, or by calculation, as described above.

[0015] Le procédé 400 comprend une étape 402 qui extrait, pour chaque image de la pile d'images PIL, la zone de netteté de ladite image. [0015] The method 400 comprises a step 402 which extracts, for each image from the stack of PIL images, the sharpness zone of said image.

[0016] L'extraction de la zone de netteté d'une image peut être réalisée de différentes manière. Par exemple, on construit un estimateur local de focus (une implémentation possible est de l'assimiler à un opérateur d'énergie/variance/entropie) qu'on calcule sur toute la surface de toutes les images. On utilise l'hypothèse que pour une zone d'image donnée, l'estimateur est maximal lorsque l'image est la plus nette. Donc on détermine pour chaque image de la pile, la ou les régions dans lesquelles la valeur donnée par l'estimateur local est la plus grande de toute la pile d'images. Le contenu de ces régions est directement copié dans le résultat désiré. En répétant le procédé pour toutes les zones de toutes les images, on construit un résultat qui en chaque point contient l'information de l'image qui était la plus nette à cet endroit. [0017] Le procédé 400 comprend une étape 404, construisant une image nette partout à partir des zones extraites lors de l'étape 402. En effet, une fois que la zone nette de chaque image de la pile a été extraite, toutes les zones nettes ainsi obtenues peuvent être concaténées ensemble. [0016] Extracting the sharpness zone of an image can be done in different ways. For example, we construct a local focus estimator (one possible implementation is to assimilate it to an energy/variance/entropy operator) that we calculate over the entire surface of all the images. We use the hypothesis that for a given image zone, the estimator is maximal when the image is sharpest. Therefore, we determine for each image in the stack, the region(s) in which the value given by the local estimator is the largest of the entire stack of images. The content of these regions is directly copied into the desired result. By repeating the process for all the zones of all the images, we construct a result that at each point contains the information of the image that was sharpest at that location. [0017] The method 400 comprises a step 404, constructing a sharp image everywhere from the areas extracted during step 402. Indeed, once the sharp area of each image of the stack has been extracted, all the sharp areas thus obtained can be concatenated together.

[0018] La concaténation peut être réalisée suivant toute technique connue. Par exemple, la concaténation peut s'appuyer sur des zones de chevauchement entre les zones nettes, et éventuellement sur des objets d'intérêt se trouvant dans lesdites zones nettes. [0018] The concatenation may be performed using any known technique. For example, the concatenation may rely on overlapping areas between the sharp areas, and possibly on objects of interest located in said sharp areas.

[0019] De manière alternative, les zones nettes peuvent être concaténées pixel par pixel de sorte à construire une image nette partout. [0019] Alternatively, the sharp areas can be concatenated pixel by pixel so as to construct a sharp image throughout.

[0020] Lors d'une étape 406 optionnelle, l'image nette partout est mémorisée. [0020] In an optional step 406, the clear image everywhere is stored.

[0021] De préférence, mais de manière nullement limitative, l'image nette partout peut être enrichie par des données de profondeur de la scène. En particulier, une donnée de profondeur peut être mémorisée en association avec au moins un, en particulier chaque, pixel ou objet de la scène. Cette, ou ces données de profondeur, peuvent être obtenues dans chacune des images de la pile d'images PIL par exemple. Alternativement, la pile d'image peut comprendre une image, ou une carte, donnant la profondeur de la scène pour différents points, et en particulier chaque point de la scène. [0021] Preferably, but in no way limiting, the sharp image everywhere can be enriched by depth data of the scene. In particular, depth data can be stored in association with at least one, in particular each, pixel or object of the scene. This, or these depth data, can be obtained in each of the images of the PIL image stack for example. Alternatively, the image stack can comprise an image, or a map, giving the depth of the scene for different points, and in particular each point of the scene.

[0022] La FIGURE 5 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0022] FIGURE 5 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.

[0023] Le procédé 500 de la FIGURE 5 peut être utilisé pour réaliser un affichage personnalisé d'une scène à partir d'au moins une image de ladite scène. [0023] The method 500 of FIGURE 5 can be used to produce a personalized display of a scene from at least one image of said scene.

[0024] Le procédé 500 de la FIGURE 5 comprend toutes les étapes du procédé 100 de la FIGURE 1. [0024] The method 500 of FIGURE 5 includes all of the steps of the method 100 of FIGURE 1.

[0025] Le procédé 500 de la FIGURE 5 peut en outre comprendre une étape 502, optionnelle, d'obtention d'une pile d'images de la scène, chaque image représentant la scène sur une profondeur de champ limitée de sorte que seule une partie de la scène est représentée de manière nette sur ladite image. [0026] La pile d'images peut être acquise par des techniques connues de focus bracketing. Alternativement, la pile d'images peut être obtenue par calcul, à partir d'une ou plusieurs images de la scène. [0025] The method 500 of FIGURE 5 may further comprise an optional step 502 of obtaining a stack of images of the scene, each image representing the scene over a limited depth of field such that only a portion of the scene is clearly represented in said image. [0026] The image stack may be acquired by known focus bracketing techniques. Alternatively, the image stack may be obtained computationally, from one or more images of the scene.

[0027] Par exemple, la pile d'images peut être la pile d'images PIL des FIGURES 2 et 4. [0027] For example, the image stack may be the image stack PIL of FIGURES 2 and 4.

[0028] Dans ce cas, et sans perte de généralité, l'étape 108 d'obtention de la nouvelle image peut être réalisée conformément à l'exemple décrit en référence à la FIGURE 2. [0028] In this case, and without loss of generality, step 108 of obtaining the new image can be carried out in accordance with the example described with reference to FIGURE 2.

[0029] La FIGURE 6 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0029] FIGURE 6 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.

[0030] Le procédé 600 de la FIGURE 6 peut être utilisé pour réaliser un affichage personnalisé d'une scène sur un support d'affichage à partir d'au moins une image de ladite scène. [0030] The method 600 of FIGURE 6 can be used to produce a personalized display of a scene on a display medium from at least one image of said scene.

[0031] Le procédé 600 de la FIGURE 6 comprend toutes les étapes du procédé 100 de la FIGURE 1. [0031] The method 600 of FIGURE 6 includes all of the steps of the method 100 of FIGURE 1.

[0032] Le procédé 600 de la FIGURE 6 peut en outre comprendre une étape 602, optionnelle, d'obtention d'une image nette partout. [0032] The method 600 of FIGURE 6 may further comprise an optional step 602 of obtaining a clear image throughout.

[0033] L'image nette partout peut être obtenue par calcul à partir d'une pile d'images. Par exemple, l'image nette partout peut être obtenue par le procédé 400 de la FIGURE 4. [0033] The everywhere sharp image can be obtained by computation from a stack of images. For example, the everywhere sharp image can be obtained by the method 400 of FIGURE 4.

[0034] L'image nette partout peut être obtenue par calcul à partir d'une seule image de la scène. [0034] The sharp image everywhere can be obtained by calculation from a single image of the scene.

[0035] Dans ce cas, et sans perte de généralité, l'étape 108 d'obtention de la nouvelle image peut être réalisée conformément à l'exemple décrit en référence à la FIGURE 3. [0035] In this case, and without loss of generality, step 108 of obtaining the new image can be carried out in accordance with the example described with reference to FIGURE 3.

[0036] La FIGURE 7 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0036] FIGURE 7 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.

[0037] Le procédé 700 de la FIGURE 7 peut être utilisé pour réaliser un affichage personnalisé d'une scène à partir d'au moins une image de ladite scène. [0038] Le procédé 700 de la FIGURE 7 comprend toutes les étapes du procédé 600 de la FIGURE 6. [0037] The method 700 of FIGURE 7 can be used to produce a personalized display of a scene from at least one image of said scene. [0038] The method 700 of FIGURE 7 includes all of the steps of the method 600 of FIGURE 6.

[0039] Le procédé 700 de la FIGURE 7 comprend en outre l'étape 502, optionnelle, d'obtention d'une pile d'images de la scène. [0039] The method 700 of FIGURE 7 further comprises the optional step 502 of obtaining a stack of images of the scene.

[0040] La FIGURE 8 est une représentation schématique d'un exemple de réalisation non limitatif d'un système selon la présente invention. [0040] FIGURE 8 is a schematic representation of a non-limiting exemplary embodiment of a system according to the present invention.

[0041] Le système 800 de la FIGURE 8 comprend peut être utilisé pour mettre en œuvre le procédé selon l'invention, et en particulier l'un quelconque des procédés 100, 500, 600, ou 700 décrits plus haut. [0041] The system 800 of FIGURE 8 may be used to implement the method according to the invention, and in particular any one of the methods 100, 500, 600, or 700 described above.

[0042] Le système 800 comprend un support d'affichage 802 utilisé par un premier utilisateur 804, appelé orateur. Le premier support d'affichage 802 peut être de tout type, tel qu'un écran d'affichage électrique ou une surface d'affichage associée à un projecteur. Dans l'exemple décrit, et sans parte de généralité, on considère que le premier support d'affichage 802 est un écran d'affichage électronique. [0042] The system 800 includes a display medium 802 used by a first user 804, called a speaker. The first display medium 802 can be of any type, such as an electric display screen or a display surface associated with a projector. In the example described, and without any generality, it is considered that the first display medium 802 is an electronic display screen.

[0043] Le premier support d'affichage 802 peut être associé à au moins un capteur 806 pour détecter : [0043] The first display support 802 can be associated with at least one sensor 806 to detect:

- la position d'un pointeur manipulé par l'orateur 804, - the position of a pointer manipulated by speaker 804,

- la position de contact d'une partie du corps de l'orateur 804 telle qu'une main ou un doigt, ou - the contact position of a part of the speaker's body 804 such as a hand or finger, or

- la position visée par une partie du corps de l'orateur 804 telle qu'une main ou un doigt, un œil, des yeux ou le visage de l'orateur ; pour fournir, ou en vue de déterminer, une position cible sur une image courante affichée sur le premier support d'affichage 802. Dans la suite et sans perte de généralité, l'au moins un capteur 806 est une surface capacitive intégrée dans l'écran d'affichage 802. - the position targeted by a part of the body of the speaker 804 such as a hand or a finger, an eye, eyes or the face of the speaker; to provide, or with a view to determining, a target position on a current image displayed on the first display medium 802. In the following and without loss of generality, the at least one sensor 806 is a capacitive surface integrated into the display screen 802.

[0044] Le système 800 comprend en outre un deuxième support d'affichage 810 utilisé par un deuxième utilisateur 812, appelé participant. Dans l'exemple représenté un seul deuxième support d'affichage 810 et un seul participant 812 sont représentés. Bien entendu, le système 800 peut comprendre un ou plusieurs deuxièmes support d'affichages, chacun associé à un ou plusieurs participants. Le, ou chaque, deuxième support d'affichage 810 peut être de tout type, tel qu'un écran d'affichage électrique ou une surface d'affichage associée à un projecteur. Dans l'exemple décrit, et sans parte de généralité, on considère que le, ou chaque, deuxième support d'affichage 810 est un écran d'affichage électronique. [0044] The system 800 further comprises a second display medium 810 used by a second user 812, called a participant. In the example shown, only one second display medium 810 and only one participant 812 are shown. Of course, the system 800 may comprise one or more second display mediums, each associated to one or more participants. The, or each, second display medium 810 may be of any type, such as an electric display screen or a display surface associated with a projector. In the example described, and without any generality, it is considered that the, or each, second display medium 810 is an electronic display screen.

[0045] Dans l'exemple représenté, le système 800 comprend un appareil 820 relié aux supports d'affichage 802 et 810 et permettant de générer un affichage personnalisé d'une scène sur le support d'affichage 810, et optionnellement sur le support d'affichage 802. [0045] In the example shown, the system 800 comprises an apparatus 820 connected to the display media 802 and 810 and making it possible to generate a personalized display of a scene on the display media 810, and optionally on the display media 802.

[0046] En particulier, l'appareil 800 comprend un module 822 réalisant un affichage d'une image de la scène qui lui est donnée en entrée. Ce module 822 est en particulier configuré/programmé pour, réaliser les étapes d'affichage 104 et 110 et 112 de la phase d'affichage 102. [0046] In particular, the apparatus 800 comprises a module 822 carrying out a display of an image of the scene given to it as input. This module 822 is in particular configured/programmed to carry out the display steps 104 and 110 and 112 of the display phase 102.

[0047] L'appareil 820 comprend en outre un module 824 de détection d'une position cible sur une image courante affichée sur le premier support 802. Ce module 822 prend en entrée une position d'un pointeur ou d'une partie du corps de l'utilisateur, et détermine la position cible sur l'image courante affichée sur le premier support d'affichage 802. Ce module 824 est en particulier configuré/programmé pour réaliser l'étape 106. [0047] The apparatus 820 further comprises a module 824 for detecting a target position on a current image displayed on the first support 802. This module 822 takes as input a position of a pointer or of a part of the user's body, and determines the target position on the current image displayed on the first display support 802. This module 824 is in particular configured/programmed to carry out step 106.

[0048] L'appareil 820 comprend en outre un module 826 d'obtention de la nouvelle image à afficher, par exemple selon l'une quelconque des techniques plus haut. Ce module 826 est en particulier configuré/programmé pour réaliser l'étape 108. [0048] The apparatus 820 further comprises a module 826 for obtaining the new image to be displayed, for example according to any of the techniques above. This module 826 is in particular configured/programmed to carry out step 108.

[0049] Au moins un de ces modules peut être un module indépendant des autres. [0049] At least one of these modules may be a module independent of the others.

[0050] Au moins deux de ces modules peuvent intégrés au sein d'un même module. [0050] At least two of these modules can be integrated within the same module.

[0051] Au moins un de ces modules peut être un module matériel. [0051] At least one of these modules may be a hardware module.

[0052] Au moins un de ces modules peut être un module logiciel, tel qu'un programme d'ordinateur. [0052] At least one of these modules may be a software module, such as a computer program.

[0053] Au moins un de ces modules peut être une combinaison d'au moins un module logiciel, tel qu'un programme d'ordinateur, et d'au moins un module matériel. [0054] En particulier, au moins un des modules 822-826 peut être intégré dans une puce électronique, ou encore dans une application logicielle. [0053] At least one of these modules may be a combination of at least one software module, such as a computer program, and at least one hardware module. [0054] In particular, at least one of the modules 822-826 can be integrated into an electronic chip, or even into a software application.

[0055] L'appareil 820 peut être tout type d'appareil tel qu'un Smartphone, une tablette, un ordinateur, un serveur, une unité de traitement, un véhicule, etc. [0055] The device 820 can be any type of device such as a smartphone, a tablet, a computer, a server, a processing unit, a vehicle, etc.

[0056] L'appareil 820 peut se trouver sur le même site que le premier support d'affichage 802, ou sur le même site que le deuxième support d'affichage 810, ou encore sur un site distant des supports d'affichages 802 et 810. [0056] The apparatus 820 may be located on the same site as the first display medium 802, or on the same site as the second display medium 810, or on a site remote from the display mediums 802 and 810.

[0057] Le premier support d'affichage 802 et le deuxième support d'affichage peuvent se trouver sur un même site ou sur des sites distants. [0057] The first display medium 802 and the second display medium may be located on the same site or on remote sites.

[0058] Dans l'exemple représenté, le système 800 comprend un seul appareil 820 commun aux supports d'affichage 802 et 810. Bien entendu, l'invention n'est pas limitée à cet exemple de réalisation. [0058] In the example shown, the system 800 comprises a single device 820 common to the display supports 802 and 810. Of course, the invention is not limited to this exemplary embodiment.

[0059] La FIGURE 9 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un système selon la présente invention. [0059] FIGURE 9 is a schematic representation of another non-limiting exemplary embodiment of a system according to the present invention.

[0060] Le système 900 de la FIGURE 9 peut être utilisé pour mettre en œuvre le procédé selon l'invention, et en particulier l'un quelconque des procédés 100, 500, 600, ou 700 décrits plus haut. [0060] The system 900 of FIGURE 9 can be used to implement the method according to the invention, and in particular any one of the methods 100, 500, 600, or 700 described above.

[0061] Le système 900 comprend un premier appareil 902 associé au premier support d'affichage 802. En particulier, le premier appareil 902 comprend le premier support d'affichage 902. Ce premier appareil 902 comprend les modules 822-826 décrits en référence au système 800 de la FIGURE 8. [0061] The system 900 comprises a first apparatus 902 associated with the first display medium 802. In particular, the first apparatus 902 comprises the first display medium 902. This first apparatus 902 comprises the modules 822-826 described with reference to the system 800 of FIGURE 8.

[0062] Le système 900 comprend un deuxième appareil 904 associé au deuxième support d'affichage 810. En particulier, le deuxième appareil 904 comprend le deuxième support d'affichage 810. Ce deuxième appareil 904 comprend un module d'affichage 906, par exemple similaire ou identique au module d'affichage 822, pour afficher une image de la scène sur le support d'affichage 810. [0063] Dans le système 900, le module 822 se trouvant dans le premier appareil 902 réalise un affichage d'une image courante de la scène sur le premier support d'affichage 802. La position cible POS est déterminée par le module 824 dudit premier appareil 902 et la nouvelle image est obtenue par le module 826 dudit premier appareil 902. La nouvelle image est transmise par le premier appareil 902 au deuxième appareil 904, de manière filaire ou sans fil. La nouvelle image reçue par le deuxième appareil 904 est affichée par le module d'affichage 906 sur le deuxième support d'affichage 810. [0062] The system 900 comprises a second apparatus 904 associated with the second display medium 810. In particular, the second apparatus 904 comprises the second display medium 810. This second apparatus 904 comprises a display module 906, for example similar or identical to the display module 822, for displaying an image of the scene on the display medium 810. [0063] In the system 900, the module 822 located in the first apparatus 902 performs a display of a current image of the scene on the first display medium 802. The target position POS is determined by the module 824 of said first apparatus 902 and the new image is obtained by the module 826 of said first apparatus 902. The new image is transmitted by the first apparatus 902 to the second apparatus 904, wired or wirelessly. The new image received by the second apparatus 904 is displayed by the display module 906 on the second display medium 810.

[0064] Dans le système 900, le premier et le deuxième appareils 902 et 904 sont en communication, directement ou par l'intermédiaire d'un réseau de communication. [0064] In the system 900, the first and second devices 902 and 904 are in communication, directly or via a communication network.

[0065] Dans le système 900, la nouvelle image est obtenue dans le premier appareil et communiquée au deuxième appareil. [0065] In system 900, the new image is obtained in the first device and communicated to the second device.

[0066] Suivant une alternative non représentée, le module 824 d'obtention de la nouvelle image peut être intégré dans le deuxième appareil 904. Dans ce cas, le premier appareil 902 transmet au deuxième appareil la position cible POS et la nouvelle image est obtenue dans le deuxième appareil. [0066] According to an alternative not shown, the module 824 for obtaining the new image can be integrated into the second device 904. In this case, the first device 902 transmits the target position POS to the second device and the new image is obtained in the second device.

[0067] Suivant encore une autre alternative non représentée, le premier appareil 902 peut comprendre le module 824 d'obtention de la nouvelle image, et un module d'obtention d'une nouvelle image, similaire ou identique audit module 824, peut être intégré dans le deuxième appareil 904. Dans ce cas, le premier appareil 902 transmet au deuxième appareil la position cible POS et la nouvelle image est obtenue à la fois dans le premier appareil 902 et dans le deuxième appareil 904. [0067] According to yet another alternative not shown, the first apparatus 902 can comprise the module 824 for obtaining the new image, and a module for obtaining a new image, similar or identical to said module 824, can be integrated in the second apparatus 904. In this case, the first apparatus 902 transmits to the second apparatus the target position POS and the new image is obtained both in the first apparatus 902 and in the second apparatus 904.

[0068] Le premier appareil peut être tout type d'appareil, tel qu'un smartphone, une tablette, un ordinateur, une télévision, un casque vidéo, un casque de réalité virtuel, un casque de réalité augmentée, etc. [0068] The first device may be any type of device, such as a smartphone, a tablet, a computer, a television, a video headset, a virtual reality headset, an augmented reality headset, etc.

[0069] Le premier appareil peut être un appareil d'imagerie médicale. [0069] The first device may be a medical imaging device.

[0070] Le premier appareil peut être intégré dans un véhicule, tel qu'un véhicule terrestre, par exemple de type voiture, ou un véhicule volant, par exemple de type drone, avion, etc. [0071] Le deuxième appareil peut être tout type d'appareil, tel qu'un smartphone, une tablette, un ordinateur, une télévision, un casque vidéo, un casque de réalité virtuel, un casque de réalité augmentée, etc. [0070] The first device may be integrated into a vehicle, such as a land vehicle, for example of the car type, or a flying vehicle, for example of the drone, airplane type, etc. [0071] The second device can be any type of device, such as a smartphone, a tablet, a computer, a television, a video headset, a virtual reality headset, an augmented reality headset, etc.

[0072] Le deuxième appareil peut être un appareil d'imagerie médicale. [0072] The second device may be a medical imaging device.

[0073] Le deuxième appareil peut être intégré dans un véhicule, tel qu'un véhicule terrestre, par exemple de type voiture, ou un véhicule volant, par exemple de type drone, avion, etc. [0073] The second device can be integrated into a vehicle, such as a land vehicle, for example of the car type, or a flying vehicle, for example of the drone, airplane type, etc.

[0074] Suivant des exemples de réalisation non limitatifs, le système selon l'invention peut être un système de conférence, ou de téléconférence, ou encore de visioconférence, comprenant plusieurs supports d'affichage se trouvant sur un même site sur des sites différents. Chaque utilisateur peut être un orateur ou un participant. [0074] According to non-limiting exemplary embodiments, the system according to the invention may be a conference system, or a teleconference system, or a videoconference system, comprising several display media located on the same site or on different sites. Each user may be a speaker or a participant.

[0075] Suivant d'autres exemples de réalisation, le système selon l'invention peut être un intégré dans un système de communication entre une personne réalisant une observation, surveillance, diagnostic médical, etc., et une autre ou plusieurs personnes - les participants- réalisant des opérations ou interventions liées à ces observations (dans le domaine de la sécurité aux personnes en zone urbaine, la signalisation d'un danger sur un réseau routier à destination d'une équipe devant le neutraliser, ou encore à destination d'un ou plusieurs usager de la route devant éviter le danger, ou encore un intervenant médical réalisant une intervention guidée à distance). [0075] According to other exemplary embodiments, the system according to the invention can be integrated into a communication system between a person carrying out an observation, monitoring, medical diagnosis, etc., and one or more other persons - the participants - carrying out operations or interventions linked to these observations (in the field of personal safety in urban areas, the signaling of a danger on a road network to a team that must neutralize it, or to one or more road users who must avoid the danger, or a medical worker carrying out a remotely guided intervention).

[0076] Bien entendu l'invention n'est pas limitée aux exemples qui viennent d'être décrits. [0076] Of course, the invention is not limited to the examples which have just been described.

Claims

REVENDICATIONS 1. Procédé (100;500;600;700) de représentation d'une scène à partir d'au moins une image de ladite scène, ledit procédé (100;500;600;700) comprenant au moins une itération d'une phase (102) d'affichage comprenant les étapes suivantes : 1. Method (100; 500; 600; 700) of representing a scene from at least one image of said scene, said method (100; 500; 600; 700) comprising at least one iteration of a display phase (102) comprising the following steps: - affichage (104), sur un premier support d'affichage (802), d'une image de la scène (IC), dite image courante ; - display (104), on a first display medium (802), of an image of the scene (IC), called the current image; - détection (106), sur ladite image courante (IC), d'une position, dite position cible à laquelle un premier utilisateur (804), dit orateur, porte un intérêt ; - detection (106), on said current image (IC), of a position, called target position in which a first user (804), called speaker, is interested; - obtention (108) d'une image (IN), dite nouvelle image, affichant de manière nette ladite scène à ladite position cible ; et - obtaining (108) an image (IN), called a new image, clearly displaying said scene at said target position; and - affichage (110) de ladite nouvelle image sur au moins un deuxième support d'affichage (810) observé par au moins un deuxième utilisateur (812), dit participant. - displaying (110) said new image on at least one second display medium (810) observed by at least one second user (812), called participant. 2. Procédé (100;500;600;700) selon la revendication précédente, caractérisé en ce qu'il comprend une étape (112) d'affichage de la nouvelle image (IN) sur le premier support d'affichage (802). 2. Method (100; 500; 600; 700) according to the preceding claim, characterized in that it comprises a step (112) of displaying the new image (IN) on the first display medium (802). 3. Procédé (100;500;600;700) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape (108) d'obtention de la nouvelle image (IN) est réalisée du côté de l'orateur (804), ladite nouvelle image étant transmise vers le participant (812). 3. Method (100; 500; 600; 700) according to any one of the preceding claims, characterized in that the step (108) of obtaining the new image (IN) is carried out on the speaker side (804), said new image being transmitted to the participant (812). 4. Procédé (100;500;600;700)selon l'une quelconque des revendications 1 ou 2, caractérisé en ce que l'étape (108) d'obtention de la nouvelle image (IN) est réalisée du côté du participant (812), ledit procédé (100;500;600;700) comprenant une transmission de la position cible vers le participant (812). 4. Method (100; 500; 600; 700) according to any one of claims 1 or 2, characterized in that the step (108) of obtaining the new image (IN) is carried out on the side of the participant (812), said method (100; 500; 600; 700) comprising a transmission of the target position to the participant (812). 5. Procédé (100;500;600;700) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape (108) d'obtention de la nouvelle image comprend une génération à la volée de la nouvelle image, par calcul. 5. Method (100; 500; 600; 700) according to any one of the preceding claims, characterized in that the step (108) of obtaining the new image comprises an on-the-fly generation of the new image, by calculation. 6. Procédé (100;500;600;700) selon la revendication précédente, caractérisé en ce que l'image source est une image (INP), préalablement obtenue, et représentant la scène de manière nette dans toutes les zones. 6. Method (100;500;600;700) according to the preceding claim, characterized in that the source image is an image (INP), previously obtained, and representing the scene clearly in all areas. 7. Procédé (100;500;600;700) selon l'une ne quelconque des revendications 1 à 3, caractérisé en ce que l'étape (108) d'obtention de la nouvelle image (IN) comprend une étape (206) de sélection de la nouvelle image (IN) dans une pile d'images (PIL) de ladite scène, chacune ayant une zone de netteté différente. 7. Method (100; 500; 600; 700) according to any one of claims 1 to 3, characterized in that the step (108) of obtaining the new image (IN) comprises a step (206) of selecting the new image (IN) in a stack of images (PIL) of said scene, each having a different sharpness zone. 8. Procédé (100;500;600;700) selon l'une quelconque des revendications précédentes, caractérisé en ce que la phase d'affichage (102) comprend en outre, après identification de la position cible, une étape d'identification d'un objet se trouvant à la position cible, l'obtention de la nouvelle image étant réalisée en fonction dudit objet. 8. Method (100; 500; 600; 700) according to any one of the preceding claims, characterized in that the display phase (102) further comprises, after identification of the target position, a step of identifying an object located at the target position, the obtaining of the new image being carried out as a function of said object. 9. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la phase d'affichage (102) comprend en outre une étape d'identification d'une zone, dite cible, de la scène comprenant la position cible, l'obtention de la nouvelle image étant réalisée en fonction de ladite zone cible. 9. Method according to any one of the preceding claims, characterized in that the display phase (102) further comprises a step of identifying a zone, called target, of the scene comprising the target position, the obtaining of the new image being carried out as a function of said target zone. 10. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la phase d'affichage (102) comprend une étape de détermination d'une donnée de profondeur de la scène à ladite position cible, la nouvelle image étant obtenue en fonction de ladite donnée profondeur. 10. Method according to any one of the preceding claims, characterized in that the display phase (102) comprises a step of determining depth data of the scene at said target position, the new image being obtained as a function of said depth data. 11. Procédé (100;500;600;700) selon l'une quelconque des revendications précédentes, caractérisé en ce que la position cible est entrée manuellement par l'orateur (804). 11. Method (100;500;600;700) according to any one of the preceding claims, characterized in that the target position is entered manually by the speaker (804). 12. Procédé (100;500;600;700) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape (106) de détection de la position cible comprend une détection, par au moins un capteur, d'une position visée par une partie du corps de l'orateur (804). 12. Method (100; 500; 600; 700) according to any one of the preceding claims, characterized in that the step (106) of detecting the target position comprises a detection, by at least one sensor, of a position targeted by a part of the body of the speaker (804). 13. Procédé (100;500;600;700) selon l'une quelconque des revendications précédentes, caractérisé en ce que la phase d'affichage (102) est réitérée pour plusieurs images, ou séries d'images, chacune captée à un instant différent, par exemple faisant partie d'une vidéo. 13. Method (100; 500; 600; 700) according to any one of the preceding claims, characterized in that the display phase (102) is repeated for several images, or series of images, each captured at a different time, for example forming part of a video. 14. Programme d'ordinateur comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par un appareil informatique, mettent en en œuvre toutes les étapes du procédé (100;500;600;700) selon l'une quelconque des revendications précédentes. 14. Computer program comprising executable instructions which, when executed by a computing device, implement all the steps of the method (100; 500; 600; 700) according to any one of the preceding claims. 15. Système (800;900) comprenant : 15. System (800;900) comprising: - un premier support d'affichage (802), - a first display support (802), - au moins un deuxième support d'affichage (810), et - au moins une unité de calcul ; configurés pour mettre en œuvre le procédé (100;500;600;700) selon l'une quelconque des revendications 1 à 13. - at least one second display medium (810), and - at least one calculation unit; configured to implement the method (100; 500; 600; 700) according to any one of claims 1 to 13.
PCT/FR2023/051056 2023-07-08 2023-07-08 Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene WO2025012524A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/FR2023/051056 WO2025012524A1 (en) 2023-07-08 2023-07-08 Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FR2023/051056 WO2025012524A1 (en) 2023-07-08 2023-07-08 Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene

Publications (1)

Publication Number Publication Date
WO2025012524A1 true WO2025012524A1 (en) 2025-01-16

Family

ID=87847935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2023/051056 WO2025012524A1 (en) 2023-07-08 2023-07-08 Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene

Country Status (1)

Country Link
WO (1) WO2025012524A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2813922A1 (en) * 2013-06-11 2014-12-17 Samsung Electronics Co., Ltd Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US20220334635A1 (en) * 2021-04-16 2022-10-20 Microsoft Technology Licensing, Llc Gaze based video stream processing
WO2023048631A1 (en) * 2021-09-24 2023-03-30 Flatfrog Laboratories Ab A videoconferencing method and system with focus detection of the presenter

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2813922A1 (en) * 2013-06-11 2014-12-17 Samsung Electronics Co., Ltd Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US20220334635A1 (en) * 2021-04-16 2022-10-20 Microsoft Technology Licensing, Llc Gaze based video stream processing
WO2023048631A1 (en) * 2021-09-24 2023-03-30 Flatfrog Laboratories Ab A videoconferencing method and system with focus detection of the presenter

Similar Documents

Publication Publication Date Title
EP3101624B1 (en) Image processing method and image processing device
JP6244655B2 (en) Image processing apparatus and image processing method
JP5871862B2 (en) Image blur based on 3D depth information
US20130335535A1 (en) Digital 3d camera using periodic illumination
CN107452031B (en) Virtual ray tracking method and light field dynamic refocusing display system
CN102959945A (en) Method and system for producing a virtual output image from data obtained by an array of image capturing devices
FR2960986A1 (en) METHOD FOR SELECTING AN OBJECT IN A VIRTUAL ENVIRONMENT
JP6971084B2 (en) Methods and devices for generating data that expresses the blur associated with light field data
US11741671B2 (en) Three-dimensional scene recreation using depth fusion
EP3271869A1 (en) Method for processing an asynchronous signal
AU2020408599A1 (en) Light field reconstruction method and system using depth sampling
CN116342452A (en) Image generation method and fusion imaging system
EP2909671B1 (en) Method for designing a single-path imager able to estimate the depth of field
CN105488780A (en) Monocular vision ranging tracking device used for industrial production line, and tracking method thereof
WO2025012524A1 (en) Method and device for the personalized displaying of a scene on a display medium on the basis of one or more images of said scene
TWI717387B (en) An apparatus and a method for computer implemented generating data, a light field imaging device, a device for rendering an image and a non-transitory computer program product for a programmable apparatus
WO2025012522A1 (en) Method and device for the personalized displaying of a scene on the basis of one or more images of said scene
EP3170205B1 (en) Device for detecting movement
US9232132B1 (en) Light field image processing
FR3071650A1 (en) ENHANCED REALITY METHOD FOR DISPLAYING RESTAURANT DISHES
JP2009186369A (en) Depth information acquisition method, depth information acquiring device, program, and recording medium
Estrada et al. Multi-frame GAN-based machine learning image restoration for degraded visual environments
EP3072110B1 (en) Method for estimating the movement of an object
WO2025012525A1 (en) Zooming technique by iterative displaying of new images
JP2018064280A (en) Information processing device and information processing method