ES2809648A1 - SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) - Google Patents
SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) Download PDFInfo
- Publication number
- ES2809648A1 ES2809648A1 ES201930771A ES201930771A ES2809648A1 ES 2809648 A1 ES2809648 A1 ES 2809648A1 ES 201930771 A ES201930771 A ES 201930771A ES 201930771 A ES201930771 A ES 201930771A ES 2809648 A1 ES2809648 A1 ES 2809648A1
- Authority
- ES
- Spain
- Prior art keywords
- image
- rendering
- area
- pupils
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
DESCRIPCIÓNDESCRIPTION
SISTEMA Y PROCEDIMIENTO DE OPTIMIZACIÓN DEL RENDERIZADO DE SYSTEM AND PROCEDURE FOR THE OPTIMIZATION OF THE RENDERING OF
IMÁGENES A PARTIR DEL SEGUIMIENTO DE LAS PUPILAS IMAGES FROM PUPIL MONITORING
OBJETO DE LA INVENCIÓNOBJECT OF THE INVENTION
La presente invención se refiere, aprovechando el hecho de que la densidad de receptores en la retina se concentra en determinados puntos de la retina del ojo, a un sistema capaz de mejorar la visión de la zona de la imagen donde se encuentra el foco de atención, usando la información de la orientación de las pupilas para optimizar la potencia de cálculo del sistema de renderizado de la imagen a mostrar en gafas de realidad virtual, monitores, pantallas, etc. en dichos puntos de máxima densidad de receptores.The present invention refers, taking advantage of the fact that the density of receptors in the retina is concentrated in certain points of the retina of the eye, to a system capable of improving the vision of the image area where the focus of attention is located. , using the information of the orientation of the pupils to optimize the computing power of the rendering system of the image to be displayed in virtual reality glasses, monitors, screens, etc. at these points of maximum receptor density.
Viene a resolver el problema hasta ahora no resuelto de mejorar la calidad y optimizar los recursos y el rendimiento de los sistemas de renderizado y representación de imágenes generadas por algoritmos numéricos.It solves the hitherto unsolved problem of improving the quality and optimizing the resources and performance of rendering systems and representation of images generated by numerical algorithms.
En la mayoría de los animales la distribución de los receptores de luz en la retina es tal que en las zonas donde se enfoca el centro de atención de la imagen que va a procesar el cerebro aumenta la densidad de dichos receptores, obteniendo por tanto más detalle el sujeto observador en la zona donde se centra su interés. En los seres humanos esta zona se denomina fóvea y tiene alrededor de 2mm cuadrados de superficie; de hecho, la mitad de la información que transfiere al cerebro el nervio óptico corresponde a la generada en la fóvea.In most animals, the distribution of light receptors in the retina is such that in the areas where the center of attention of the image to be processed by the brain is focused, the density of these receptors increases, thus obtaining more detail. the observing subject in the area where his interest is centered. In humans this area is called the fovea and is about 2mm square in area; in fact, half of the information that the optic nerve transfers to the brain corresponds to that generated in the fovea.
El procedimiento en sí usa un dispositivo de seguimiento de la posición de la pupila para determinar qué parte del campo de visión sintetizado en la imagen a representar va a incidir en la fóvea para que el motor de síntesis de imagen use una cantidad adecuadamente mayor de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla y/o gafas VR, etc.) en renderizar y representar la zona de la imagen que va a incidir en la fóvea de la retina. El resto de la imagen puede ser sintetizada con menor detalle ya que la densidad de receptores de luz en el resto de la superficie de la retina es menor.The procedure itself uses a device to monitor the position of the pupil to determine which part of the synthesized field of view in the image to be represented is going to affect the fovea so that the image synthesis engine uses an appropriately greater amount of resources. (resolution, GPU and CPU power, video memory, screen resolution and / or VR glasses, etc.) in rendering and representing the area of the image that will affect the fovea of the retina. The rest of the image can be synthesized with less detail since the density of light receptors in the rest of the retina surface is lower.
La aplicación industrial de esta invención se encuentra por tanto en el diseño y desarrollo de sistemas y dispositivos de captación de movimiento y posición ocular combinados con sistemas de renderizado de imágenes en simuladores de entrenamiento y/o formación, en juegos y vídeos en streaming, y optimización de estos.The industrial application of this invention is therefore in the design and development of systems and devices for capturing movement and ocular position. combined with image rendering systems in training and / or training simulators, in games and streaming videos, and their optimization.
ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION
Aunque no se ha encontrado ninguna invención idéntica a la descrita, exponemos a continuación los documentos encontrados que reflejan el estado de la técnica relacionado con la misma.Although no invention identical to that described has been found, we present below the documents found that reflect the state of the art related thereto.
Así el documento ES2327633T3 hace referencia a una instalación para la detección de ojos que comprende: una o más fuentes de luz para emitir luz en direcciones hacia la cabeza de un usuario, un detector para recibir luz desde la cabeza de un usuario y para captar repetidamente imágenes de la misma, y una unidad de evaluación conectada al detector para determinar la posición y/o dirección de mirada de un ojo, y dispuesta para determinar, en una imagen captada por el detector, un área en la que estén localizadas una imagen de un ojo o unas imágenes de ojos, la unidad de evaluación está dispuesta para, tras haber determinado el área, controlar el detector para enviar a la unidad de evaluación la información acerca de las imágenes sucesivas que sólo corresponde al área determinada de la imagen captada por el detector, y el detector está dispuesto para leer información únicamente de la porción de la superficie del detector que corresponde al área determinada, y por lo tanto los datos que luego han de ser enviados a la unidad de evaluación. La instalación a la que se refiere el citado documento se centra en la detección de ojos, mientras que la invención principal busca la orientación de la pupila para optimizar los sistemas y recursos de visualización de imágenes.Thus document ES2327633T3 refers to an installation for the detection of eyes that comprises: one or more light sources to emit light in directions towards the head of a user, a detector to receive light from the head of a user and to repeatedly capture images thereof, and an evaluation unit connected to the detector to determine the position and / or gaze direction of an eye, and arranged to determine, in an image captured by the detector, an area in which an image of an eye or images of eyes, the evaluation unit is arranged to, after having determined the area, control the detector to send to the evaluation unit the information about the successive images that only corresponds to the determined area of the image captured by the detector, and the detector is arranged to read information only from the portion of the detector surface that corresponds to the determined area, and therefore the data that it lu ego have to be sent to the evaluation unit. The facility referred to in said document focuses on eye detection, while the main invention seeks the orientation of the pupil to optimize image display systems and resources.
US6152563A1 propone un sistema para la detección de la dirección de la mirada que utiliza un diodo emisor de luz infrarroja montado coaxialmente con el eje óptico y delante de la lente de imagen de una cámara de video sensible al infrarrojo para grabar de forma remota las imágenes del ojo del operador de la computadora. La luz infrarroja entra en el ojo y es absorbida y luego reemitida por la retina, lo que provoca un "efecto de ojo brillante” que hace que la pupila sea más brillante que el resto del ojo. También da lugar a un pequeño brillo aún más brillante que se forma en la superficie de la córnea. La computadora incluye software y hardware que adquiere una imagen de video, la digitaliza en una matriz de píxeles y luego analiza la matriz para identificar la ubicación del centro del alumno en relación con el centro del destello. Con esta información, el software calibra el sistema para proporcionar un alto grado de precisión en la determinación del punto de vista del usuario. Cuando se combina con una pantalla de computadora y una interfaz gráfica de usuario, el sistema puede colocar el cursor en el punto de vista del usuario y luego realizar las diversas acciones de hacer clic con el ratón en la ubicación en la pantalla donde el usuario se fija. En este caso se trata de un sistema de interfaz y control de cursor en un medio de visualización a través de la orientación del ojo en el que se proyecta un haz de luz infrarroja que registra una cámara, sin embargo, no comprende módulo ninguno de optimización de recursos en renderizados, como ofrece la invención principal.US6152563A1 proposes a gaze direction detection system that uses an infrared light emitting diode mounted coaxially with the optical axis and in front of the image lens of an infrared sensitive video camera to remotely record images from the computer operator's eye. Infrared light enters the eye and is absorbed and then re-emitted by the retina, causing a "bright eye effect" that makes the pupil brighter than the rest of the eye. It also results in an even brighter little glow shiny that forms on the surface of the cornea.The computer includes software and hardware that acquires a video image, digitizes it into a pixel array, and then analyzes the array to identify the location of the student's center in relation to the center of the flare. With this information, the software calibrates the system to provide a high degree of precision in determining the user's point of view. When combined with a computer screen and graphical user interface, the system can place the cursor at the user's point of view and then perform the various actions of clicking the mouse at the location on the screen where the user is located. fixed. In this case, it is an interface and cursor control system in a visualization medium through the orientation of the eye in which an infrared light beam is projected that registers a camera, however, it does not include any optimization module. of resources in renderings, as offered by the main invention.
DE19731301A1 describe un método para controlar microscopios y aparatos conectados a los mismos mediante análisis de la dirección de visión. También se refiere a un aparato para medir la dirección de visión y un accesorio de ocular para llevar a cabo dicho método. El objetivo de la invención es proporcionar un método, un aparato para medir la dirección de visión y una fijación del tipo descrito anteriormente que permita controlar el microscopio y cualquier aparato que funcione en el área de trabajo de dicho microscopio exclusivamente por medio de los datos ópticos de los ojos del observador sin que se produzcan reflejos perturbadores o un manejo incorrecto del microscopio. Con este fin, se utiliza una luz altamente difusa con una longitud de onda de entre 800 y 1000 nm como luz infrarroja que se genera coaxialmente alrededor del ojo del observador a nivel del tubo del ocular. Además, en la trayectoria del haz del sistema óptico se genera al menos otra señal infrarroja que es independiente del lugar de producción de la luz difusa y se dirige al ojo del observador, cuya señal infrarroja tiene una intensidad diferente de la de la luz difusa y una longitud de onda de entre 800 y 1000 nm y se somete a la luz difusa para producir al menos un reflejo corneal adicional. Al igual que en el caso anterior, el control de la orientación del ojo se utiliza para una labor distinta a la del optimizado de renderización de imágenes, concretamente para el control de microscopios y aparatos asociados a los mismos. DE19731301A1 describes a method for controlling microscopes and apparatus connected to them by viewing direction analysis. It also refers to an apparatus for measuring the direction of vision and an eyepiece accessory for carrying out said method. The aim of the invention is to provide a method, an apparatus for measuring the direction of vision and a fixture of the type described above that allows the microscope and any apparatus operating in the working area of said microscope to be controlled exclusively by means of the optical data from the observer's eyes without disturbing reflections or improper handling of the microscope. For this purpose, highly diffuse light with a wavelength between 800 and 1000 nm is used as infrared light that is generated coaxially around the observer's eye at the level of the eyepiece tube. Furthermore, in the beam path of the optical system at least one other infrared signal is generated which is independent of the place of production of the diffuse light and is directed to the eye of the observer, whose infrared signal has an intensity different from that of diffuse light and a wavelength between 800 and 1000 nm and is subjected to stray light to produce at least one additional corneal reflex. As in the previous case, the control of the orientation of the eye is used for a different task than the optimization of image rendering, specifically for the control of microscopes and devices associated with them.
US5638176A1 se refiere a un sistema de seguimiento ocular económico que no requiere equipo de cabeza. El sistema de seguimiento ocular utiliza las franjas de interferencia entre el brillo de la córnea y la reflexión retiniana del "ojo rojo” para obtener una señal de punto de fondo inmune de fondo y resolución angular para usarla como dispositivo señalador para computadoras personales. La espectroscopia láser de diodo sintonizable (seguro para los ojos) se utiliza para medir el período y la amplitud de las franjas de Fabry-Perot causadas por la interferencia entre el brillo corneal y el reflejo "rojo" de la retina. Una vez más, el sistema asociado al análisis de la orientación del ojo se refiere a un dispositivo de control distinto al que propone la invención principal, siendo en este caso el uso como dispositivo señalador para ordenadores y computadoras.US5638176A1 refers to an inexpensive eye tracking system that does not require head gear. The eye tracking system uses the interference fringes between corneal brightness and "red eye" retinal reflection to obtain an immune background spot signal and angular resolution for use as a pointing device for personal computers. Spectroscopy Tunable diode laser (eye safe) is used to measure the period and amplitude of Fabry-Perot fringes caused by interference between corneal brightness and the "red" reflection of the retina. Again, the system associated with the analysis of the orientation of the eye refers to a control device other than the one proposed by the main invention, being in this case the use as a pointing device for computers and computers.
Conclusiones: Como se desprende de la investigación realizada, ninguno de los documentos encontrados soluciona los problemas planteados como lo hace la invención propuesta.Conclusions: As can be seen from the research carried out, none of the documents found solves the problems raised as the proposed invention does.
DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION
El sistema de optimización del renderizado de imágenes a partir del seguimiento de las pupilas objeto de la presente invención se constituye a partir de unas gafas de realidad virtual que llevan instalado un dispositivo o medio de seguimiento de la posición de la pupila, y un procesador que analiza dicha información para, junto con el motor de renderizado, usar una cantidad adecuadamente mayor de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla y/o gafas VR, etc.) en renderizar y representar la zona de la imagen que va a incidir en la fóvea de la retina, pudiendo dedicar menos potencia al resto de la imagen.The system for optimizing the rendering of images from the tracking of the pupils object of the present invention is constituted from virtual reality glasses that have a device or means for monitoring the position of the pupil installed, and a processor that analyzes this information to, together with the rendering engine, use an appropriately greater amount of resources (resolution, GPU and CPU power, video memory, screen resolution and / or VR glasses, etc.) in rendering and rendering the area of the image that will affect the fovea of the retina, being able to dedicate less power to the rest of the image.
Para realizar la síntesis de las imágenes el motor de renderizado 3D debe sintetizar dos imágenes por fotograma una que ocupe todo el campo de visión en baja calidad (detalle) y una con la mayor calidad (detalle) posible con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea y que se superpondrá a la imagen de baja calidad en el área adecuada para que incida en la fóvea. De esta manera el usuario no percibirá diferencia con una imagen del campo de visión total renderizada a alta calidad (detalle).To carry out the synthesis of the images, the 3D rendering engine must synthesize two images per frame, one that occupies the entire field of view in low quality (detail) and one with the highest possible quality (detail) with the field of view reduced to part of the image that will hit the fovea and overlap the low-quality image in the appropriate area to hit the fovea. From this way the user will not perceive difference with an image of the total field of vision rendered at high quality (detail).
En una realización diferente, donde el objetivo final sea la optimización de una señal de imagen de un vídeo o juego en streaming, la información de la posición de las pupilas se envía al servidor de streaming, para que sea éste el que optimice los algoritmos de compresión de vídeo que utiliza, para que el detalle de la imagen generada se adecue a la zona de la retina que incidirá al ser observada.In a different embodiment, where the final objective is the optimization of an image signal of a streaming video or game, the information on the position of the pupils is sent to the streaming server, so that it is the one that optimizes the algorithms of video compression that it uses, so that the detail of the generated image is adapted to the area of the retina that will affect when observed.
En el caso en que el medio de reproducción de imágenes como puede ser un portátil, un smartphone u otro tipo de dispositivo que integre pantalla y cámara, puede usar dicha cámara para hacer el seguimiento de la pupila.In the case where the image reproduction medium such as a laptop, a smartphone or another type of device that integrates a screen and a camera, you can use said camera to track the pupil.
Para mejorar el resultado de la percepción del observador se puede usar un algoritmo de extrapolación de la trayectoria seguida por las pupilas para predecir la posición de la imagen de mayor detalle y extender suficientemente el área de dicha imagen hacia la posición que ocupará en el/los siguiente/s fotograma/s.To improve the result of the observer's perception, an algorithm for extrapolation of the trajectory followed by the pupils can be used to predict the position of the image of greater detail and sufficiently extend the area of said image towards the position it will occupy in the / los next frame / s.
BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS
Para una mejor comprensión de la presente descripción se acompañan unos dibujos que representan una realización preferente de la presente invención:For a better understanding of the present description, some drawings are attached that represent a preferred embodiment of the present invention:
Figura 1: Vista en perspectiva convencional de unas gafas VR con cámara para la captación de los movimientos, la posición y orientación de la pupila.Figure 1: Conventional perspective view of a VR glasses with a camera for capturing the movements, position and orientation of the pupil.
Figura 2: Vista esquemática de una imagen renderizada compuesta por dos imágenes superpuestas a partir del sistema de optimización objeto de la presente invención.Figure 2: Schematic view of a rendered image composed of two superimposed images from the optimization system object of the present invention.
Las referencias numéricas que aparecen en dichas figuras corresponden a los siguientes elementos constitutivos de la invención:The numerical references that appear in said figures correspond to the following constitutive elements of the invention:
1. Gafas VR1. VR glasses
2. Cámara2. Camera
3. Procesador3. Processor
4. Imagen final 4. Final image
5. Imagen a baja calidad que ocupa todo el campo de visión5. Low-quality image that occupies the entire field of view
6. Imagen en alta calidad con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea.6. High quality image with the field of vision reduced to the part of the image that will affect the fovea.
DESCRIPCIÓN DE UNA REALIZACIÓN PREFERENTEDESCRIPTION OF A PREFERRED EMBODIMENT
Una realización preferente del sistema y procedimiento de optimización del renderizado de imágenes a partir del seguimiento de las pupilas objeto de la presente invención, implantado en gafas VR a modo de ejemplo, con alusión a las referencias numéricas, puede basarse en el desarrollo de las siguientes etapas técnicas:A preferred embodiment of the system and procedure for optimizing the rendering of images from the tracking of the pupils object of the present invention, implanted in VR glasses by way of example, with reference to the numerical references, can be based on the development of the following technical stages:
i. - Captación de la orientación de la mirada.i. - Gaze orientation capture.
Una cámara (2) instalada en las gafas de realidad virtual (1) captan la imagen de los ojos del usuario, y un software asociado a dicha cámara (2) calcula a través de un procesador (3) los movimientos, la posición y orientación de la pupila, y envía dicha información al motor de síntesis de imagen.A camera (2) installed in the virtual reality glasses (1) captures the image of the user's eyes, and a software associated with said camera (2) calculates through a processor (3) the movements, position and orientation of the pupil, and sends this information to the image synthesis engine.
ii. - Optimización de recursos de renderizado.ii. - Optimization of rendering resources.
El motor de síntesis de imagen toma la información de la etapa anterior y la implementa en el renderizado a proyectar como imagen final (4), dedicando mayor cantidad de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla, etc.) en representar la zona de la imagen que va a incidir en la fóvea de la retina, de forma que realiza la síntesis de dos imágenes (5, 6) por fotograma, una (5) que ocupe todo el campo de visión en baja calidad y una (6) con la mayor calidad posible con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea y que se superpondrá a la imagen de baja calidad en el área adecuada para que incida en la fóvea.The image synthesis engine takes the information from the previous stage and implements it in the rendering to be projected as a final image (4), dedicating more resources (resolution, GPU and CPU power, video memory, screen resolution, etc.) in representing the area of the image that will affect the fovea of the retina, in such a way that it performs the synthesis of two images (5, 6) per frame, one (5) that occupies the entire field of view in low quality and one (6) with the highest possible quality with the field of view reduced to the part of the image that will hit the fovea and overlap the low quality image in the appropriate area to hit the fovea.
La imagen representada por el número (5) de la figura 2 puede renderizarse obviando el área que ocupará en la imagen representada por el número 4 la imagen representada por el número 6 si el obviar dicha área supone un uso más eficiente de los recursos disponibles para el renderizado. The image represented by the number (5) of figure 2 can be rendered ignoring the area that will occupy in the image represented by the number 4 the image represented by the number 6 if ignoring said area implies a more efficient use of the resources available for rendering.
En los casos de pantallas, será necesario usar un sistema que capture la distancia al observador. In the case of screens, it will be necessary to use a system that captures the distance to the observer.
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201930771A ES2809648A1 (en) | 2019-09-04 | 2019-09-04 | SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201930771A ES2809648A1 (en) | 2019-09-04 | 2019-09-04 | SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2809648A1 true ES2809648A1 (en) | 2021-03-04 |
Family
ID=74851507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201930771A Withdrawn ES2809648A1 (en) | 2019-09-04 | 2019-09-04 | SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) |
Country Status (1)
Country | Link |
---|---|
ES (1) | ES2809648A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180033405A1 (en) * | 2016-08-01 | 2018-02-01 | Facebook, Inc. | Adaptive parameters in image regions based on eye tracking information |
WO2018140287A1 (en) * | 2017-01-25 | 2018-08-02 | Apple Inc. | Electronic device with foveated display system |
WO2018220608A1 (en) * | 2017-05-29 | 2018-12-06 | Eyeway Vision Ltd | Image projection system |
US20190094981A1 (en) * | 2014-06-14 | 2019-03-28 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
-
2019
- 2019-09-04 ES ES201930771A patent/ES2809648A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190094981A1 (en) * | 2014-06-14 | 2019-03-28 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20180033405A1 (en) * | 2016-08-01 | 2018-02-01 | Facebook, Inc. | Adaptive parameters in image regions based on eye tracking information |
WO2018140287A1 (en) * | 2017-01-25 | 2018-08-02 | Apple Inc. | Electronic device with foveated display system |
WO2018220608A1 (en) * | 2017-05-29 | 2018-12-06 | Eyeway Vision Ltd | Image projection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10257507B1 (en) | Time-of-flight depth sensing for eye tracking | |
US9959678B2 (en) | Face and eye tracking using facial sensors within a head-mounted display | |
US11016301B1 (en) | Accommodation based optical correction | |
KR102062658B1 (en) | Sphere tracking of the cornea to create an ocular model | |
EP3905943B1 (en) | System and method for eye tracking | |
EP3252566B1 (en) | Face and eye tracking and facial animation using facial sensors within a head-mounted display | |
CN104094197B (en) | Watch tracking attentively using projecting apparatus | |
CN109643152B (en) | Face and eye tracking and face animation using face sensors within a head-mounted display | |
US10802583B2 (en) | Methods and apparatus for retinal retroreflection imaging | |
US10420464B2 (en) | Gaze tracking system | |
JP6631951B2 (en) | Eye gaze detection device and eye gaze detection method | |
US10430988B2 (en) | Facial animation using facial sensors within a head-mounted display | |
US10599215B2 (en) | Off-axis eye tracker | |
CN109964230B (en) | Method and apparatus for eye metric acquisition | |
US10984236B2 (en) | System and apparatus for gaze tracking | |
JP2018099174A (en) | Pupil detector and pupil detection method | |
US20170263006A1 (en) | Corneal sphere tracking for generating an eye model | |
ES2809648A1 (en) | SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) | |
JP2016122380A (en) | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
BA2A | Patent application published |
Ref document number: 2809648 Country of ref document: ES Kind code of ref document: A1 Effective date: 20210304 |
|
FA2A | Application withdrawn |
Effective date: 20210621 |