ES2282429T3 - Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. - Google Patents
Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. Download PDFInfo
- Publication number
- ES2282429T3 ES2282429T3 ES02743348T ES02743348T ES2282429T3 ES 2282429 T3 ES2282429 T3 ES 2282429T3 ES 02743348 T ES02743348 T ES 02743348T ES 02743348 T ES02743348 T ES 02743348T ES 2282429 T3 ES2282429 T3 ES 2282429T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- point
- characteristic
- formatted information
- formatted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/58—Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimiles In General (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
Procedimiento para producir informaciones formateadas (IF) relacionadas con los aparatos (App1, App2, App3) de una cadena de aparatos (APP1); dicha cadena de aparatos incluye, en especial, como mínimo, un aparato de captura de imagen (App1) o, al menos, un aparato de restitución de imagen (APP2); dicho aparato permite capturar o restituir una imagen (I) en un soporte (SC); dicho aparato incluye, al menos, una característica fija o una característica variable según la imagen (I); dicha característica fija o característica variable es susceptible de estar asociada a uno o varios valores de características, especialmente la focal o la puesta a punto y sus valores de características asociadas; dicho procedimiento incluye la etapa de: - producir informaciones formateadas (IF) relacionadas con las distorsiones geométricas de, al menos, un aparato de dicha cadena. - producir informaciones formateadas medidas (IFM1 a IFMm) relacionadas con las distorsiones geométricas de dicho aparato a partir de un campo medido (D(H)); dichas informaciones formateadas (IF) pueden incluir dichas informaciones formateadas medidas. - producir informaciones formateadas extendidas (IFE1 a IFEm) relacionadas con las distorsiones geométricas de dicho aparato a partir de dichas informaciones formateadas medidas (IFM1 a IFMm); dichas informaciones formateadas pueden incluir dichas informaciones formateadas extendidas; dichas informaciones formateadas extendidas presentan una desviación (14) en relación con dichas informaciones formateadas medidas, y dicho procedimiento incluye un primer algoritmo de cálculo (AC1) que permite obtener dicho campo medido D(H) a partir de un sistema de referencia(M)que consta de puntos característicos (PP1, PPi, PPj, PPm) y una referencia virtual (R) compuesta por puntos de referencia (PR1, PRi, PRj, PRm) sobre una superficie de referencia (SR); dicho primer algoritmo de cálculo (AC1) incluye la etapa de capturar o restituir dicho sistema de referencia (M) por medio de dicho aparato para producir una imagen (I) de dichos puntos característicos en dicho soporte (SC); la imagen de un punto característico (PP1, PPi, PPj, PPm) se denominará en adelante el punto característico de imagen (PT1, PTi, PTj, PTm); dicho primer algoritmo de cálculo (AC2) incluye además: - la etapa de establecer una biyección entre dichos puntos característicos de imágenes (PT1, Pti, PTj, PTm) y dichos puntos de referencia. - la etapa de seleccionar cero, una o varias características variables entre el conjunto de dichas características variables, en adelante llamadas las características variables seleccionadas. dicho campo medido (D(H)) está compuesto por: - el conjunto de pares constituidos por uno de dichos puntos de referencia (PRm) y por un punto característico de imagen (PTm) asociado por dicha biyección. - el valor, para dicha imagen (I), de cada una de dichas características variables seleccionadas.
Description
Procedimiento y sistema para producir
informaciones formateadas relacionadas con las distorsiones
geométricas.
La presente invención se refiere a un
procedimiento y un sistema para producir informaciones formateadas
relacionadas con las distorsiones geométricas.
El documento WO 01/35052 A (ARMSTRONG BRIAN S;
SCHMIDT KARL B (US)) del 17 de mayo de 2001
(17-05-2001) divulga un
procedimiento para producir informaciones relativas a las
distorsiones geométricas en fotogrametría. Su sistema de lentes
consta de características fijas y características variables
susceptibles de estar asociadas a uno o varios valores de
características. Su método produce informaciones medidas
relacionadas con las distorsiones geométricas a partir de un campo
medido y también otras informaciones que presentan una desviación en
relación con las informaciones medidas. Las informaciones producidas
a partir de las informaciones medidas se representan mediante los
parámetros de un modelo configurable. El campo medido se obtiene
midiendo los puntos de la imagen que presentan un interés
particular, por ejemplo, por detección de un marcado de
referencia.
La invención se refiere a un procedimiento para
producir informaciones formateadas relacionadas con los aparatos de
una cadena de aparatos tal y como se define en la reivindicación 1.
La cadena de aparatos consta, especialmente, de al menos un aparato
de restitución de imagen. El procedimiento incluye la etapa de
producción de informaciones formateadas relacionadas con las
distorsiones geométricas de, al menos, un aparato de la cadena.
Preferentemente, según la invención, el aparato
permite capturar o restituir una imagen sobre un soporte. El aparato
incluye, al menos, una característica fija o una característica
variable según la imagen. La característica fija o característica
variable es susceptible de estar asociada a uno o varios valores de
características, en concreto, la focal o la puesta a punto y sus
valores de características asociadas. El procedimiento incluye la
etapa de producción de informaciones formateadas medidas
relacionadas con las distorsiones geométricas del aparato a partir
del campo medido. Las informaciones formateadas pueden incluir las
informaciones formateadas medidas.
Preferentemente, según la invención, el método
incluye además la etapa de producción de informaciones formateadas
extendidas relacionadas con las distorsiones geométricas del aparato
a partir de informaciones formateadas medidas. Las informaciones
formateadas pueden constar de informaciones formateadas extendidas.
Las informaciones formateadas extendidas presentan una desviación en
relación con dichas informaciones formateadas medidas.
Preferentemente, según la invención, el
procedimiento es tal que las informaciones formateadas, producidas a
partir de informaciones formateadas medidas, se representan mediante
los parámetros de un modelo configurable seleccionado entre un
conjunto de modelos configurables, especialmente un conjunto de
polinomios. El procedimiento incluye además la etapa de selección
del modelo configurable en el conjunto de modelos configurables:
- definiendo una desviación máxima.
- ordenando los modelos configurables del
conjunto de modelos configurables según su grado de complejidad de
uso.
- seleccionando el primero de los modelos
configurables del conjunto de modelos configurables ordenado para el
que la desviación sea inferior a la desviación máxima.
Según una variante de realización de la
invención, las informaciones formateadas extendidas pueden ser las
informaciones formateadas medidas.
Preferentemente, según la invención, el
procedimiento incluye un primer algoritmo de cálculo que permite
obtener el campo medido a partir de un sistema de referencia que
incluye puntos característicos y una referencia virtual compuesta
por puntos de referencia sobre una superficie de referencia. El
primer algoritmo de cálculo incluye la etapa de capturar o restituir
el sistema de referencia por medio del aparato para producir una
imagen de puntos característicos sobre el soporte. La imagen de un
punto característico se denomina en adelante el punto característico
de imagen.
El primer algoritmo de cálculo incluye
además:
- la etapa de establecer una biyección entre los
puntos característicos de imágenes y los puntos de referencia.
- la etapa de seleccionar cero, una o varias
características variables entre el conjunto de características
variables, en lo sucesivo denominadas las características variables
seleccionadas.
El campo medido está compuesto por:
- el conjunto de pares constituidos por uno de
los puntos de referencia y por el punto característico de imagen
asociado por la biyección.
- el valor, para la imagen en cuestión, de cada
una de las características variables seleccionadas.
Preferentemente, según la invención, el
procedimiento incluye además la etapa de selección de una proyección
matemática, en concreto una homografía, entre el soporte y la
superficie de referencia. El campo medido está compuesto por el
valor, para la imagen, de cada una de las características variables
seleccionadas y para cada punto de referencia por:
- el par constituido por el punto de referencia
y la proyección matemática, sobre la superficie de referencia, por
el punto característico de imagen asociado por la biyección al punto
de referencia, o
- el par constituido por el punto característico
de imagen asociado por la biyección al punto de referencia y de la
proyección matemática sobre el soporte del punto de referencia.
Preferentemente, según la invención, el
procedimiento incluye además la etapa de obtención de informaciones
formateadas extendidas relativas a un punto de referencia cualquiera
sobre la superficie o a un punto de referencia característico de
imagen cualquiera del soporte, deduciendo las informaciones
formateadas, relativas a un punto de referencia cualquiera o a un
punto característico de imagen cualquiera, a partir de informaciones
formateadas medidas.
Preferentemente, según la invención, el
procedimiento es tal que el aparato de la cadena presenta, al menos,
una característica variable según la imagen, en especial la focal o
la puesta a punto. Cada característica variable es susceptible de
estar asociada a un valor para formar una combinación constituida
por el conjunto de características variables y valores. El
procedimiento incluye además las etapas siguientes:
- la etapa de selección de combinaciones
predeterminadas.
- la etapa de cálculo de informaciones
formateadas medidas, en concreto usando el primer algoritmo de
cálculo para cada una de las combinaciones predeterminadas así
seleccionadas.
Se denomina argumento, según el caso:
- a un punto de referencia cualquiera sobre la
superficie de referencia y una combinación, o
- a un punto característico de imagen cualquiera
del soporte y a una combinación.
Preferentemente, según la invención, el
procedimiento incluye además la etapa de deducción de las
informaciones formateadas extendidas relativas a un argumento
cualquiera a partir de las informaciones formateadas medidas. De la
combinación de rasgos técnicos se deriva el hecho de que las
informaciones formateadas sean más compactas y robustas respecto a
los errores de medición.
Preferentemente, según la invención, el
procedimiento es tal que para deducir las informaciones formateadas
extendidas a partir de informaciones formateadas medidas:
- se define un primer umbral.
- se seleccionan las informaciones formateadas
extendidas de forma que la desviación sea inferior al primer
umbral.
Preferentemente, según la invención, el
procedimiento incluye además la etapa de asociación de las
desviaciones a las informaciones formateadas. De la combinación de
rasgos técnicos se deriva el hecho de que las informaciones
formateadas puedan utilizarse por programas de tratamiento de
imágenes cuya distorsión geométrica residual sea conocida. De la
combinación de rasgos técnicos se deriva el hecho de que las
informaciones formateadas puedan utilizarse por programas de
tratamiento de imágenes para obtener imágenes destinadas a ser
restituidas por un aparato de restitución de imágenes con una
distorsión geométrica residual conocida.
Preferentemente, según la invención, el
procedimiento incluye además la etapa de selección sobre el soporte
de cuatro puntos característicos de imágenes tales como el
cuadrilátero definido por los cuatro puntos característicos de
imágenes, que tiene una superficie máxima y un centro de gravedad
situado cerca del centro geométrico de la imagen. La proyección
matemática es la homografía que transforma los cuatro puntos
característicos de imágenes en los puntos de referencia asociados
por la biyección en los cuatro puntos característicos de imágenes.
De la combinación de rasgos técnicos se deriva el hecho de que sea
posible, así, obtener simplemente informaciones formateadas que
pueden utilizarse en los programas de tratamiento de imágenes para
capturar o restituir imágenes con un pequeño cambio de
perspectiva.
Preferentemente, según la invención, la imagen
es una imagen en color compuesta por varios planos de color. El
método incluye además la etapa de producción de informaciones
formateadas medidas utilizando el primer algoritmo de cálculo para,
al menos, dos de los planos de color, usando la misma proyección
matemática para cada uno de los planos de color. Así, es posible
utilizar las informaciones formateadas o informaciones formateadas
medidas para corregir las distorsiones o las aberraciones cromáticas
del aparato.
Preferentemente, según la invención, la imagen
es una imagen en color compuesta por varios planos de color. El
método incluye además la etapa de producción de informaciones
formateadas medidas utilizando el primer algoritmo de cálculo para,
al menos, uno de los planos de color, usando la misma referencia
virtual para cada uno de los planos de color. Así, es posible
utilizar las informaciones formateadas o informaciones formateadas
medidas para corregir las aberraciones cromáticas del aparato.
La invención se refiere a un sistema para
producir informaciones 7 formateadas relacionadas con los aparatos
de una cadena de aparatos tal y como se define en la reivindicación
11. La cadena de aparatos incluye, en particular, al menos un
aparato de captura de imagen o al menos un aparato de restitución de
imagen. El sistema incluye medios de cálculo para producir
informaciones formateadas relacionadas con las distorsiones
geométricas de, al menos, un aparato de la cadena.
El aparato permite capturar o restituir una
imagen sobre un soporte. El aparato consta de, al menos, una
característica fija o una característica variable, según la imagen.
La característica fija o característica variable es susceptible de
estar asociada a uno o varios valores de características, en
concreto, la focal o la puesta a punto y sus valores de
características asociadas. Preferentemente, según la invención, el
sistema incluye medios de cálculo para producir informaciones
formateadas medidas relacionadas con las distorsiones geométricas
del aparato a partir de un campo medido. Las informaciones
formateadas pueden incluir las informaciones formateadas
medidas.
Preferentemente, según la invención, el sistema
incluye además medios de cálculo para producir informaciones
formateadas extendidas relacionadas con las distorsiones geométricas
del aparato a partir de informaciones formateadas medidas. Las
informaciones formateadas pueden incluir las informaciones
formateadas extendidas. Las informaciones formateadas extendidas
presentan una desviación en relación con las informaciones
formateadas medidas.
Preferentemente, según la invención, el sistema
es tal que las informaciones formateadas, producidas a partir de
informaciones formateadas medidas, se representan mediante los
parámetros de un modelo configurable elegido entre un conjunto de
modelos configurables, en concreto, un conjunto de polinomios. El
sistema incluye además medios de selección para seleccionar el
modelo configurable en el conjunto de modelos configurables. Los
medios de selección incluyen medios de tratamiento informático
para:
- definir una desviación máxima.
- ordenar los modelos configurables del conjunto
de modelos configurables según su grado de complejidad de uso.
- seleccionar el primero de los modelos
configurables del conjunto de modelos configurables ordenado para el
que la desviación sea inferior a la desviación máxima.
Según una variante de realización de la
invención, las informaciones formateadas extendidas pueden ser las
informaciones formateadas medidas.
Preferentemente, según la invención, el sistema
incluye medios de cálculo que usan un primer algoritmo de cálculo,
que permite obtener el campo medido a partir de un sistema de
referencia que consta de puntos característicos y de una referencia
virtual compuesta por puntos de referencia sobre una superficie de
referencia. El aparato de captura de imagen o el aparato de
restitución de imagen incluye medios de captura o medios de
restitución del sistema de referencia que permiten producir una
imagen de puntos característicos sobre el soporte. La imagen de un
punto característico se denomina en adelante el punto característico
de imagen.
Los medios de cálculo del primer algoritmo de
cálculo incluyen además medios de tratamiento informático para:
- establecer una biyección entre los puntos
característicos de imágenes y los puntos de referencia.
- seleccionar cero, una o varias características
variables entre el conjunto de características variables, en
adelante denominadas las características variables
seleccionadas.
El campo medido está compuesto por:
- el conjunto de pares constituidos por uno de
los puntos de referencia y por el punto característico de imagen
asociado por la biyección y
- el valor, para la imagen, de cada una de las
características variables seleccionadas.
Preferentemente, según la invención, el sistema
incluye además medios de análisis para elegir una proyección
matemática, en concreto una homografía, entre el soporte y la
superficie de referencia. El campo medido está compuesto por
el valor, para la imagen, de cada una de las características variables seleccionadas y para cada punto de referencia por:
el valor, para la imagen, de cada una de las características variables seleccionadas y para cada punto de referencia por:
- el par constituido por el punto de referencia
y la proyección matemática, en la superficie de referencia, por el
punto característico de imagen asociado por la biyección al punto de
referencia o
- el par constituido por el punto característico
de imagen asociado por la biyección al punto de referencia y por la
proyección matemática, sobre el soporte, del punto de
referencia.
Preferentemente, según la invención, el sistema
incluye además medios de tratamiento informático para obtener las
informaciones formateadas extendidas relativas a un punto de
referencia cualquiera sobre la superficie de referencia o a un punto
característico de imagen cualquiera del soporte, deduciendo las
informaciones formateadas, relativas a un punto de referencia
cualquiera o a un punto característico de imagen cualquiera, a
partir de informaciones formateadas medidas.
Preferentemente, según la invención, el sistema
es tal que el aparato de la cadena de aparato presenta, al menos,
una característica variable según la imagen, en concreto la focal o
la puesta a punto. Cada característica variable es susceptible de
estar asociada a un valor para formar una combinación constituida
por el conjunto de características variables y valores. El sistema
incluye también:
- medios de selección para seleccionar
combinaciones predeterminadas.
- medios de cálculo para calcular informaciones
formateadas medidas, en concreto utilizando el primer algoritmo de
cálculo para cada una de las combinaciones predeterminadas así
seleccionadas.
Un argumento designa, según el caso:
- un punto de referencia cualquiera sobre la
superficie de referencia y una combinación o
- un punto característico de imagen cualquiera
del soporte y una combinación.
Preferentemente, según la invención, el sistema
incluye además medios de tratamiento informático para deducir las
informaciones formateadas extendidas relativas a un argumento
cualquiera a partir de informaciones formateadas medidas. De la
combinación de rasgos técnicos se deriva el hecho de que las
informaciones formateadas sean más compactas y robustas respecto a
los errores de medición.
Preferentemente, según la invención, el sistema
es tal que los medios de tratamiento informático para deducir las
informaciones formateadas extendidas a partir de informaciones
formateadas medidas incluyen medios de selección para seleccionar
las informaciones formateadas extendidas de manera que la desviación
sea inferior a un primer umbral.
Preferentemente, según la invención, las
desviaciones están asociadas a dichas informaciones formateadas. De
la combinación de rasgos técnicos se deriva el hecho de que las
informaciones formateadas puedan ser utilizadas por programas de
tratamiento de imágenes capturadas con el aparato, para obtener
imágenes cuya distorsión geométrica residual sea conocida.
Preferentemente, según la invención, el sistema
incluye además medios de selección para seleccionar en el soporte
cuatro puntos característicos de imágenes como el cuadrilátero
definido por los cuatro puntos característicos de imágenes, que
tiene una superficie máxima y un centro de gravedad situado cerca
del centro geométrico de la imagen. La proyección matemática es la
homografía que transforma los cuatro puntos característicos de
imágenes en los puntos de referencia asociados por la biyección a
los cuatro puntos característicos de imágenes. De la combinación de
rasgos técnicos se deriva el hecho de que, de esta forma, es posible
obtener simplemente informaciones formateadas que puedan ser
utilizadas por programas de tratamiento de imágenes para capturar o
restituir imágenes con un pequeño cambio de perspectiva.
La imagen es una imagen en color compuesta por
varios planos de color. Preferentemente, según la invención, el
sistema incluye además medios de tratamiento informático para
producir las informaciones formateadas medidas empleando el primer
algoritmo de cálculo para, al menos, dos de los planos de color,
utilizando la misma proyección matemática para cada uno de los
planos de color. Así, es posible utilizar las informaciones
formateadas o informaciones formateadas medidas para corregir las
distorsiones o las aberraciones cromáticas del aparato.
Preferentemente, según la invención, la imagen
es una imagen en color compuesta por varios planos de color. El
sistema incluye además medios de tratamiento informático para
producir las informaciones medidas empleando el primer algoritmo de
cálculo para, al menos, uno de los planos de color, utilizando la
misma referencia virtual para cada uno de los planos de color. Así,
es posible utilizar las informaciones formateadas o las
informaciones formateadas medidas para corregir las aberraciones
cromáticas del aparato.
Aparecerán otras características y ventajas de
la invención en la lectura de la descripción de las variantes de
realización de la invención, ofrecidas a modo de ejemplo indicativo
y no limitativo, así como figuras que representan
respectivamente:
- figura 1: esquema de una captura de
imagen.
- figura 2: esquema de una restitución de
imagen.
- figura 3: esquema de píxeles de una
imagen.
- figura 4a y 4b: dos esquemas de una escena de
referencia.
- figura 5: organigrama del método que permite
calcular la diferencia entre la imagen matemática y la imagen
corregida.
- figura 6: organigrama del método que permite
obtener la mejor transformación de restitución para un medio de
restitución de imagen.
- figura 7: esquema de los elementos que
componen el sistema según la invención.
- figura 8: esquema de los campos de
informaciones formateadas.
- figura 9a: esquema de frente de un punto
matemático.
- figura 9b: esquema de frente de un punto real
de una imagen.
- figura 9c: esquema de perfil de un punto
matemático.
- figura 9d: esquema de perfil de un punto real
de una imagen.
- figura 10: esquema de una tabla de puntos
característicos.
- figura 11: organigrama del método que permite
obtener las informaciones formateadas.
- figura 12: organigrama del método que permite
obtener la mejor transformación para un aparato de captura de
imagen.
- figuras 13a y 13b: diagramas que permiten
explicar la producción de un campo medido utilizando
biyecciones.
- figuras 14a y 14b: diagramas que permiten
explicar la producción de un campo medido utilizando biyecciones y
proyecciones matemáticas.
- figuras 15a y 15b: procedimiento en el que el
campo medido se produce en forma de polinomio.
- figuras 16a y 16b: variante de un
procedimiento de cálculo de un campo medido.
- figuras 17 y 18: procedimientos de
interpolación de la información formateada de un punto a partir de
informaciones formateadas conocidas.
- figuras 19a a 19c: variantes del procedimiento
que permite minimizar el número de puntos de cálculo del campo
medido.
- figuras 20a a 20d: procedimiento que permite
calcular las informaciones formateadas relativas a una imagen en
color.
- figura 21: procedimiento relativo a la
corrección de una imagen deformada por una proyección.
- figura 22: variante del procedimiento que
permite minimizar el número de puntos de cálculo en los casos de la
corrección de una distorsión geométrica.
- figura 23a a 23c: procedimiento que permite
eliminar zonas no tratadas de una imagen corregida.
- figura 24: informaciones formateadas
relacionadas con las distorsiones geométricas de un aparato AP1 de
una cadena de aparatos P3.
- figura 25: ejemplo de realización de un
sistema según la invención.
En la figura 1 se han representado: una escena 3
que incluye un objeto 107, un capturador 101 y la superficie del
capturador 110, un centro óptico 111, un punto de observación 105 en
una superficie del capturador 110, una dirección de observación 106
pasando por el punto de observación 105, el centro óptico 111, la
escena 3, una superficie 10 geométricamente asociada a la superficie
del capturador 110.
En la figura 2 se han representado una imagen
103, un medio de restitución de imagen 19 y una imagen restituida
191 obtenida sobre el soporte de restitución 190.
En la figura 3 se han representado una escena 3,
un aparato de captura de imagen 1 y una imagen 103 constituida por
píxeles 104.
En las figuras 4a y 4b se han representado dos
variantes de una escena de referencia 9.
En la figura 5 se ha representado un organigrama
en el que se pone en práctica una escena 3, una proyección
matemática 8 que proporciona una imagen matemática 70 de la escena
3, una proyección real 72 que proporciona una imagen matemática 103
de la escena 3 para las características utilizadas 74, un modelo de
transformación configurable 12 que proporciona una imagen corregida
71 de la imagen 103, la imagen corregida 71 que presenta una
diferencia 73 con la imagen matemática 70.
En la figura 6 se ha representado un organigrama
en el que se pone en práctica una imagen 103, una proyección real de
restitución 90 que proporciona una imagen restituida 191 de la
imagen 103 para las características de restitución utilizadas 95, un
modelo de transformación configurable de restitución 97 que
proporciona una imagen corregida de restitución 94 de la imagen 103,
una proyección matemática de restitución 96 que proporciona una
imagen matemática de restitución 92 de la imagen corregida de
restitución 94 y que presenta una diferencia de restitución 93 con
la imagen restituida 191.
En la figura 7 se ha representado un sistema que
incluye un aparato de captura de imagen 1 constituido por una óptica
100, un capturador 101 y una electrónica 102. En la figura 7 también
se han representado una zona de memoria 16 que contiene una imagen
103, una base de datos 22 que contiene informaciones formateadas 15,
medios de transmisión 18 de la imagen completada 120 constituida por
la imagen 103 e informaciones formateadas 15 hacia medios de cálculo
17 que contienen programas de tratamiento de imagen 4.
En la figura 8 se han representado informaciones
formateadas 15 constituidas por campos 90.
\newpage
En las figuras 9a a 9d se han representado una
imagen matemática 70, una imagen 103, la posición matemática 40 de
un punto, la forma matemática 41 de un punto, comparadas con la
posición real 50 y la forma real 51 del punto correspondiente de la
imagen.
En la figura 10 se ha representado una tabla 80
de puntos característicos.
En la figura 11 se ha representado un
organigrama en el que se pone en práctica una imagen 103, las
características utilizadas 74, una base de datos de características
22. Las informaciones formateadas 15 se obtienen a partir de
características utilizadas 74 y almacenadas en la base de datos 22.
La imagen completada 120 se obtiene a partir de la imagen 103 y de
las informaciones formateadas 15.
En la figura 12 se ha representado un
organigrama en el que se pone en práctica una escena de referencia
9, una proyección matemática 8 que proporciona una clase de imagen
de síntesis 7 de la escena de referencia 9, una proyección real 72
que proporciona una imagen de referencia 11 de la escena de
referencia 9 para las características utilizadas 74. Este
organigrama también emplea un modelo de transformación configurable
12 que proporciona una imagen transformada 13 de la imagen de
referencia 11. La imagen transformada 13 presenta una desviación
residual 1 con la clase de imagen de síntesis 7.
Haciendo referencia en especial a las figuras 2,
3, 13a, 13b y 24, se describirá la noción de aparato APP1. En el
sentido de la invención, un aparato APP1 puede ser,
especialmente:
- un aparato de captura de imagen 1 tal y como
se presenta en la figura 3 o un aparato de captura de imagen tal y
como se presenta en la figura 13a, como, por ejemplo, un aparato de
fotografía desechable, un aparato de fotografía numérico, un aparato
réflex, un escáner, un fax, un endoscopio, un camescopio, una cámara
de vigilancia, una webcam, una cámara integrada o conectada a un
teléfono, un asistente personal o un ordenador, una cámara térmica,
un aparato de ecografía.
- un aparato de restitución de imagen APP2, tal
y como se representa en la figura 13b o medio de restitución de
imagen 19 tal y como se representa en la figura 2, como, por
ejemplo, una pantalla, un proyector, un televisor, gafas de realidad
virtual o una impresora.
- un ser humano que tenga defectos en la vista,
por ejemplo, astigmatismo.
- un aparato parecido al usado para producir
imágenes que tengan, por ejemplo, un aspecto similar a las
producidas por un aparato de la marca Leica.
- un dispositivo de tratamiento de imágenes, por
ejemplo, un programa de zoom que tenga como efecto de borde añadir
un efecto borroso.
- un aparato virtual equivalente a varios
aparatos APP1.
Un aparato APP1 más complejo como un
escáner/fax/impresora, un Minilab de impresión de fotografía, un
aparato de videoconferencias pueden considerarse un aparato APP1 o
varios aparatos APP1.
En referencia a la figura 24 especialmente, se
describirá a continuación la noción de cadena de aparatos P3. Se
denomina cadena de aparatos P3 a un conjunto de aparatos APP1. La
noción de cadena de aparatos P3 puede incluir además una noción de
orden.
Los ejemplos siguientes constituyen cadenas de
aparatos P3:
- un solo aparato APP1.
- un aparato de captura de imagen y un aparato
de restitución de imagen.
- un aparato de fotografía, un escáner, una
impresora, por ejemplo un Minilab de revelado de fotografías.
- un aparato fotonumérico, una impresora, por
ejemplo en un Minilab de revelado de fotografías.
- un escáner, una pantalla o una impresora, por
ejemplo en un ordenador.
- una pantalla o proyector y el ojo de un ser
humano.
- un aparato u otro aparato parecido.
- un aparato de fotografías y un escáner.
- un aparato de captura de imagen, un programa
de tratamiento de imágenes.
- un programa de tratamiento de imágenes, un
aparato de restitución de imágenes.
- una combinación de los ejemplos
anteriores.
- otro conjunto de aparatos APP1.
En referencia a la figura 24 especialmente, se
describirá a continuación la noción de defecto P5. Se denomina
defecto P5 del aparato APP1 a un defecto relacionado con
características de la óptica o del capturador o de la electrónica o
del programa integrado en un aparato APP1; ejemplos de defectos P5
son, por ejemplo, la distorsión geométrica, el efecto borroso, la
formación de viñetas, las aberraciones cromáticas, la calidad de los
colores, la uniformidad del flash, el ruido del capturador, el
granulado, el astigmatismo, la aberración esférica.
En referencia a la figura 13a especialmente, se
describirá a continuación la noción de imagen I. Se denomina imagen
I a una imagen capturada o modificada o restituida por un aparato
APP1. La imagen I puede proceder de un aparato APP1 de la cadena de
aparatos P3. La imagen I puede estar destinada a un aparato APP1 de
la cadena de aparatos P3. En los casos de imágenes animadas, por
ejemplo, de vídeo, constituidas por una secuencia en el tiempo de
imágenes fijas, se denomina imagen I a una imagen fija de la
secuencia de imágenes.
En referencia a la figura 24 especialmente, se
describirá a continuación la noción de informaciones formateadas IF.
Se denomina informaciones formateadas IF a las informaciones
relacionadas con defectos P5 de uno o varios aparatos APP1 de la
cadena de aparatos P3 y que permiten calcular una imagen
transformada teniendo en cuenta defectos P5 del aparato APP1. Para
producir las informaciones formateadas IF, se pueden utilizar
diversos procedimientos basados en medidas o capturas o restitución
de referencia o simulaciones.
Para producir las informaciones formateadas IF,
se puede utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional presentada en la misma fecha que
la presente patente a nombre de la sociedad Vision IQ, bajo el
título: "Procedimiento y sistema para reducir la frecuencia de las
actualizaciones de medios de tratamiento de imágenes". En esta
solicitud, se describe un procedimiento para reducir la frecuencia
de actualizaciones de medios de tratamiento de imágenes,
especialmente un programa o un componente. Los medios de tratamiento
de imágenes que permiten modificar la calidad de las imágenes
numéricas proceden de una cadena de aparatos o están destinadas a la
misma. La cadena de aparato consta, al menos, de un aparato de
captura de imagen o al menos, de un aparato de restitución de
imagen. Los medios de tratamiento de imagen emplean informaciones
formateadas relacionadas con los defectos de, al menos, un aparato
de la cadena de aparatos. Las informaciones formateadas IF dependen,
al menos, de una variable. Las informaciones formateadas permiten
establecer una correspondencia entre una parte de las variables y
los identificadores. Los identificadores permiten determinar el
valor de la variable correspondiente al identificador teniendo en
cuenta el identificador y la imagen. De la combinación de rasgos
característicos se deriva el hecho de que sea posible determinar el
valor de una variable, especialmente en el caso en que la
significación física o el contenido de la variable sólo se conozcan
con posterioridad a la difusión de los medios de tratamiento de
imagen. Asimismo, de la combinación de rasgos característicos se
deriva el hecho de que el tiempo entre dos actualizaciones del
programa de corrección puede estar espaciado. De la combinación de
rasgos característicos también se deriva el hecho de que los
diversos actores económicos que producen aparatos o medios de
tratamiento de imagen pueden actualizar sus productos
independientemente de otros actores económicos, incluso si estos
últimos cambian radicalmente las características de sus productos o
no pueden forzar a su cliente a actualizar sus productos. De la
combinación de rasgos característicos también se deriva el hecho de
que puede lanzarse progresivamente una nueva funcionalidad
comenzando por un número limitado de actores económicos y de
usuarios pioneros.
Para producir las informaciones formateadas IF,
podemos utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional presentada en la misma fecha que
la presente solicitud a nombre de la sociedad Vision IQ bajo el
título: "Procedimiento y sistema que hay que proporcionar, según
un formato estándar, de las informaciones formateadas con medios de
tratamiento de imágenes". En esta solicitud se describe un
procedimiento para proporcionar, según un formato estándar,
informaciones formateadas IF con medios de tratamiento de imágenes,
especialmente programas o componentes. Las informaciones formateadas
IF están relacionadas con los defectos de una cadena de aparatos
P3. La cadena de aparatos P3 incluye, en concreto, al menos un
aparato de captura de imagen 1 o un aparato de restitución de imagen
19. Los medios de tratamiento de imágenes utilizan las informaciones
formateadas IF para modificar la calidad de, al menos, una imagen
procedente de la cadena de aparatos P3 o destinada a la misma. Las
informaciones formateadas IF incluyen datos característicos de
defectos P5 del aparato de captura de imagen 1 o un aparato de
restitución de imágenes 19, especialmente las características de
distorsión.
El procedimiento incluye la etapa en que se debe
rellenar el campo del formato estándar con las informaciones
formateadas IF. El campo se designa mediante un nombre de campo. El
campo contiene al menos un valor de campo.
Para utilizar las informaciones formateadas IF,
podemos utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional presentada en la misma fecha que
la presente solicitud a nombre de la sociedad Vision IQ, bajo el
título: "Procedimiento y sistema para modificar la calidad de, al
menos, una imagen destinada a una cadena de aparatos predeterminada
o procedente de la misma". En esta solicitud, se describe un
procedimiento para modificar la calidad de, al menos, una imagen
destinada a una cadena de aparatos predeterminada o procedente de la
misma. La cadena de aparatos predeterminada incluye, al menos, un
aparato de captura de imagen 1 o, al menos, un aparato de
restitución de imagen 19. Los aparatos de captura de imagen 1 o los
aparatos de restitución de imagen 19, progresivamente introducidos
en el mercado por distintos actores económicos, pertenecen a un
conjunto indeterminado de aparatos. Los aparatos APP1 del conjunto
de aparatos presentan defectos P5 que pueden estar caracterizados
por informaciones formateadas. El procedimiento incluye, para la
imagen en cuestión, las etapas siguientes:
- la etapa de catalogación de fuentes de
informaciones formateadas relativas a los aparatos del conjunto de
aparatos.
- la etapa de búsqueda de manera automática,
entre las informaciones formateadas así catalogadas, de
informaciones formateadas específicas relativas a la cadena de
aparatos determinada.
- la etapa de modificación de manera automática
de la imagen I por medio de programas de tratamiento de imágenes o
componentes de tratamiento de imágenes teniendo en cuenta
informaciones formateadas específicas así obtenidas.
Para utilizar las informaciones formateadas IF,
se puede utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional presentada en la misma fecha que
la presente solicitud en nombre de la sociedad Vision IQ, bajo el
título: "Procedimiento y sistema para calcular una imagen
transformada a partir de una imagen numérica y de informaciones
formateadas relativas a una transformación geométrica". En esta
solicitud, se describe un procedimiento para calcular una imagen
transformada a partir de una imagen numérica y de informaciones
formateadas IF relativas a una transformación geométrica,
especialmente informaciones formateadas IF relativas a las
distorsiones o aberraciones cromáticas de una cadena de aparatos. El
procedimiento incluye la etapa de calcular la imagen transformada a
partir de una aproximación de la transformación geométrica. De ello
se deriva el hecho de que el cálculo sea parco en recursos de
memoria, ancho de banda de memoria, potencia de cálculo y consumo
eléctrico. También se deriva el hecho de que la imagen transformada
no presente defecto visible o molesto para su posterior
uso.
uso.
Para utilizar las informaciones formateadas IF,
se puede utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional presentada en la misma fecha que
la solicitud de patente internacional de la presente invención con
el número a nombre de la sociedad Vision IQ, con el título:
``Procedimiento y sistema para corregir las aberraciones cromáticas
de una imagen en color realizada por medio de un sistema óptico. En
esta patente, se describe un procedimiento para corregir las
aberraciones cromáticas de una imagen en color compuesta por varios
planos de color numerados. La imagen en color se ha realizado por
medio de un sistema óptico. El procedimiento abarca las etapas
siguientes:
- la etapa de modelar y corregir, al menos en
parte, anomalías de geometría de los planos de colores numerados, de
manera que se obtengan planos de colores numerados corregidos.
- la etapa de combinar los planos de colores
numerados corregidos, de manera que se obtenga una imagen de color
corregida, total o parcialmente, de aberraciones cromáticas.
Se describirá a continuación la noción de
característica variable. Según la invención, se denomina
característica variable a un factor que pueda medirse y sea variable
de una imagen I a otra capturada, modificada o restituida por un
mismo aparato APP1, que tenga una influencia en el defecto P5 de la
imagen capturada, modificada o restituida por el aparato APP1, en
concreto:
- una variable global, fija para una imagen I
dada, por ejemplo, una característica del aparato APP1 en el momento
de la captura o de restitución de la imagen relacionada con un
ajuste del usuario o relacionada con un automatismo del aparato
APP1.
- una variable local, variable en una imagen I
dada, por ejemplo, coordenadas X, Y o RO, theta en la imagen, que
permita aplicar llegado el caso un tratamiento local diferente según
la zona de la imagen I.
En general, no se considera una característica
variable un factor que pueda medirse y sea variable de un aparato
APP1 al otro pero fijo de una imagen I a la otra capturada,
modificada o restituida por un mismo aparato APP1, por ejemplo, la
focal para un aparato APP1 de focal fija.
Las informaciones formateadas IF pueden
depender, al menos, de una característica variable.
Se entiende por característica variable,
especialmente:
- la focal de la óptica.
- el redimensionamiento aplicado a la imagen
(factor de zoom numérico: aumento de una parte de la imagen o el
submuestreo: disminución del número de píxeles de la imagen).
- la corrección no lineal de luminancia, por
ejemplo, la corrección de gamma.
- el realce del contorno, por ejemplo, el nivel
de eliminación de efecto borroso aplicado por el aparato APP1.
- el ruido del capturador y de la
electrónica.
- la apertura de la óptica.
- la distancia de puesta a punto.
- el número de la vista en una película.
- la sobreexposición o subexposición.
- la sensibilidad de la película o del
capturador.
- el tipo de papel utilizado en una
impresora.
- la posición del centro del capturador en la
imagen.
- la rotación de la imagen en relación con el
capturador.
- la posición de un proyector en relación con la
pantalla.
- el equilibrio de blancos utilizado.
- la activación del flash o su potencia.
- el tiempo de exposición.
- el rendimiento del capturador.
- la compresión.
- el contraste.
- otro ajuste aplicado por el usuario del
aparato APP1, por ejemplo, un modo de funcionamiento.
- otro ajuste automático del aparato APP1.
- otra medida realizada por el aparato APP1.
Se describirá a continuación la noción de valor
de característica variable. Se denomina valor de característica
variable al valor de la característica variable en el momento de la
captura, modificación o restitución de una imagen determinada.
En el sentido de la invención, se denomina
modelo configurable o modelo de transformación configurable o
transformación configurable a un modelo matemático que puede
depender de características variables y relativo a uno o varios
defectos P5 de uno o varios aparatos APP1. Las informaciones
formateadas IF relativas a un defecto P5 de un aparato pueden
presentarse en forma de parámetros de un modelo configurable en
función de características variables.
La figura 13a representa un organigrama en el
que se pone en práctica:
- un sistema de referencia M que puede ser la
escena de referencia 9 anterior.
- un soporte SC que incluye una imagen. En el
caso de un sistema de captura de imágenes, la superficie SC puede
ser la de un capturador (CCD por ejemplo), o en el caso de un
sistema de restitución de imágenes, esta superficie puede ser la de
una pantalla de proyección o la de una hoja de papel de una
impresora.
- una superficie de referencia virtual SR
(equivalente a la superficie 10 anterior) que incluye una referencia
virtual R o una imagen de referencia virtual que puede ser una
imagen de síntesis de la clase de imágenes de síntesis 7
anterior.
anterior.
La imagen I (denominada anteriormente imagen de
referencia 11) se obtiene a partir del sistema de referencia M con
ayuda de un aparato APP1 o de una cadena de aparatos P3 sobre un
soporte SC que puede ser una superficie de capturador. Una cadena de
aparatos es un conjunto de aparatos que permite obtener una imagen.
Por ejemplo, una cadena de aparatos App1/App2/App3 podrá incluir un
aparato de captura de imágenes, un escáner, un aparato de impresión,
etc.
La imagen I incluye defectos P5 y especialmente
distorsiones geométricas relacionadas con estos aparatos APP1.
La referencia virtual R se deduce directamente
de M y debe considerarse perfecta o casi perfecta. Puede ser
idéntica o casi idéntica a M o, por el contrario, presentar
diferencias como se verá posteriormente.
A modo de ejemplo, podemos explicitar la
relación entre el sistema de referencia M y la superficie de
referencia R de la manera siguiente: a los puntos PP1 a PPm del
sistema de referencia M corresponden los puntos de referencia PR1 a
PRm en la referencia virtual R de la superficie de referencia SR,
así como puntos característicos de imágenes PT1 a PTm de la imagen I
del soporte SC.
Según un ejemplo de realización de la invención,
se prevé una etapa de realización de la imagen I con ayuda del
aparato APP1 o de la cadena de aparatos P3.
En el transcurso de una etapa siguiente, se
elige cierto número de puntos PTi, PRi. Estos puntos se eligen en
números limitados y se sitúan en zonas características del sistema
de referencia M, de la imagen I y de la referencia virtual R.
Después, se establece una biyección entre los puntos PTi de la
imagen y los puntos PRi de la referencia virtual. Así, en cada punto
PTi elegido se crea la correspondencia con un punto PRi
correspondiente y recíproca-
mente.
mente.
En el transcurso de otra etapa, es posible sin
ser obligatorio elegir características variables del aparato (o de
la cadena de aparatos) APP1 entre las utilizadas para obtener la
imagen I con el aparato APP1. Las características variables de un
aparato o de una cadena de aparatos pueden incluir la focal de la
óptica de un aparato, la puesta a punto, la abertura, el número de
la foto en un conjunto de fotos, el zoom numérico, las
características de una captura parcial de imagen ("crop" en la
terminología anglosajona), etc.
El conjunto de los siguientes datos constituye
un campo medido DH que podrá utilizarse, en lo sucesivo, para
corregir una imagen:
- la biyección, es decir, el conjunto de pares
de puntos PTi y PRi elegidos y que se corresponden por la biyección
anterior.
- el conjunto de características variables
elegidas.
Estos datos, que constituyen un campo de medida,
permitirán obtener informaciones formateadas medidas.
En una variante de realización, se puede
utilizar un programa de simulación del aparato, en concreto un
programa de simulación óptica o un banco de medida óptica para
calcular los puntos PTi a partir de los puntos PPi del sistema de
referencia M o a partir de los puntos PPi de un modelo del sistema
de referencia M.
La figura 14a representa otra forma de obtención
de un campo medido.
En esta figura 14a se encuentra el sistema de
referencia M, la superficie de referencia SR y el soporte SC.
Como se ha hecho anteriormente, se procede a la
realización de la imagen I sobre el soporte SC con ayuda de un
aparato APP3. Después, se realiza la biyección descrita
anteriormente.
A continuación, se establece una proyección
matemática y preferentemente una homografía entre un punto del
soporte SC y un punto de la superficie de referencia SR.
En la figura 14b, puede verse que, para cada
punto PRj de la superficie de referencia, puede obtenerse un punto H
(PRj) de la imagen por proyección matemática. Preferentemente, para
dos puntos PRj y PTj de un par relacionados por biyección, tenemos
un punto H(PRj), proyección matemática de PRj sobre el
soporte SC.
\newpage
En estas condiciones, se obtiene un campo medido
más completo añadiendo a los datos del campo las fórmulas de
proyección matemática establecidas. Así, un campo medido DH
incluye:
- las características variables posiblemente
elegidas.
- para diferentes puntos de referencia PR, la
proyección matemática H(PRj) del punto de referencia PRj
sobre el soporte SC que proporciona, de esta forma, un nuevo punto H
(PRj) asociado al punto PTj correspondiente por biyección. De esta
manera, tenemos en el campo medido una serie de pares relacionados
por biyección, en cada par, y un punto que es la proyección
matemática del otro punto del par.
El campo medido DH puede estar constituido
igualmente por:
- características variables elegidas.
- pares constituidos cada uno de ellos por un
punto PT de la superficie de referencia y un punto H(PR) que
representa la proyección matemática del punto PR relacionado por
biyección con el punto PT del soporte SC.
El campo medido DH de una imagen obtenida de
esta manera puede incluir como factor las características variables
para el conjunto de pares de puntos obtenidos de forma que se
consiga un aumento de espacio en memoria.
Según otra variante de la invención, el campo
medido DH puede estar constituido por:
- características variables elegidas.
- pares de puntos PT y proyecciones matemáticas
de puntos PR (relacionadas por biyección con los puntos PT) sobre el
soporte SC.
- pares de puntos PR y proyecciones matemáticas
de puntos PT (relacionados por biyección con los puntos PR) sobre la
superficie de referencia SR.
Como se ha dicho anteriormente, el campo medido
DH permite obtener informaciones formateadas medidas.
Los ejemplos de procedimientos y sistemas
anteriores representados por las figuras 13a a 14b permiten obtener
un campo de medidas denominado campo medido DH y constituido por
tantos conjuntos de datos como puntos de imagen I y de referencia
virtual R se hayan elegido.
Con este campo medido para la imagen I, se
constituye un conjunto de informaciones formateadas medidas IFM. Una
información formateada medida de un punto PTj incluirá, por
ejemplo:
- las características fijas del aparato o de los
aparatos utilizados.
- las características variables elegidas.
- la posición en X e Y del punto en la imagen
PTj.
- la proyección matemática del punto PRj
correspondiente por biyección.
Se observará que una proyección matemática
particular que puede utilizarse, por ejemplo, en los escáneres, es
la identidad.
El uso del sistema llevará a tratar un gran
número de puntos y un gran número de datos en consecuencia. Para
hacer más manejable el funcionamiento del sistema, acelerar el
tratamiento o ser robusto respecto a los errores de medición, el
procedimiento y el sistema representado por las figuras 15a y 15b
prevén deducir, a partir de informaciones formateadas medidas IFM1 a
IFMm, informaciones formateadas extendidas IFE1 a IFEm que
pertenecen a una superficie que puede estar representada por una
función elegida en un espacio de dimensión limitado, como, por
ejemplo, un polinomio de orden limitado, elegido entre la clase de
polinomios de grado finito o una función spline de grados
apropiada.
Las figuras 15a y 15b representan ejemplos
simplificados correspondientes a casos en que la información
formateada depende de una sola variable. La invención se aplica de
la misma forma cuando la información formateada depende de diversas
variables, que suele ser el caso.
Las figuras 15a y 15b representan ejemplos
simplificados correspondientes a casos en que la información
formateada medida es una instrucción única y sólo depende de dos
variables (X, Y). La invención se aplica de la misma forma cuando la
información formateada es vectorial y depende de más de dos
variables, que suele ser el caso.
En la figura 15b, se han representado en el
plano IM las diferentes coordenadas de los puntos de una imagen. En
el punto de las coordenadas X1, Y1, se encuentra la información
medida IFM1. En cada punto de plano IM hay una información
formateada de valor particular. La invención consiste en calcular un
modelo configurable, como una superficie polinomial SP. Una forma
particular de calcular SP puede ser calcular esta superficie,
pasando por todos los extremos de las informaciones formateadas
medidas o acercándose. Otra forma de proceder podría ser preservar
las características geométricas (no forzosamente euclídeas) de un
subconjunto de puntos de M como la alineación de puntos según una
línea recta o cualquier curva de configuración predeterminada. En
estas condiciones, cuando se trata una imagen, en lugar de recurrir
a un gran número de informaciones formateadas medidas, el sistema
podrá utilizar un modelo configurable.
La dificultad radica en encontrar una superficie
SP que pase por todos los puntos o cerca de todos estos puntos. Se
prevé admitir que pueda existir una desviación EC entre una
información formateada medida IFM y una información formateada
extendida IFE. Además, se determina que dicha EC no debe superar
cierto umbral dS. En estas condiciones, convendrá que una superficie
polinomial pase por todos los puntos de informaciones formateadas
medidas IFM \pm dS.
La elección de este umbral se hará de acuerdo
con los errores de fotografía, los errores de medición, el nivel de
precisión requerido para la corrección, etc.
El procedimiento y el sistema empleado podrán
prever utilizar un número determinado de modelos configurables que
puedan escribirse, por ejemplo, en forma de polinomios. Se prevé
clasificar estos modelos por orden de complejidad creciente.
A continuación, con un conjunto de informaciones
medidas, se prueba cada modelo partiendo preferentemente del modelo
más simple (el polinomio de orden más reducido) hasta obtener un
modelo que defina, en la intersección de la superficie polinomial y
de la dirección de cada información formateada medida, un
información formateada extendida cuya desviación EC con la
información formateada medida sea inferior al umbral dS.
El procedimiento y el sistema esquematizados en
las figuras 15a y 15b están destinados a obtener informaciones
formateadas medidas extendidas. No obstante, la invención podría
limitarse a usar sólo como informaciones formateadas las
informaciones formateadas medidas. También se puede prever utilizar,
para las informaciones formateadas, las informaciones formateadas
medidas y las informaciones formateadas medidas extendidas.
Independientemente, se puede prever también
asociar a las informaciones formateadas las desviaciones EC
encontradas entre las informaciones formateadas medidas y las
informaciones formateadas extendidas. Las informaciones formateadas
pueden utilizarse, así, por programas de tratamiento de imágenes
para obtener imágenes cuya distorsión geométrica residual se conozca
independientemente de que se trate de imágenes capturadas por un
aparato de captura de imágenes o de imágenes restituidas por un
aparato de restitución de imágenes.
Refiriéndose a las figuras 16a y 16b, se
describirá a continuación una variante de cálculo del campo medido
D(H) de una imagen I.
Según el organigrama del algoritmo AC2 de la
figura 16a, que dispone de un sistema de referencia M, como el de la
figura 14a, se procede en el transcurso de una primera etapa ET2.1 a
la captura de este sistema de referencia M con ayuda del aparato
APP3. Se obtiene la imagen I sobre el soporte SC. Por otra parte, se
dispone de una referencia virtual R sobre una superficie de
referencia SR. Esta referencia virtual R representa, en principio,
de forma exacta o casi exacta, el sistema de referencia M.
En el transcurso de la etapa ET2.2, se establece
una biyección entre los puntos característicos de imagen PT de la
imagen I del soporte SC y los puntos de referencia PR de la
referencia virtual R de la superficie de referencia SR (véase
también la figura 14a).
En el transcurso de la etapa ET2.3, se elige una
proyección matemática, como una homografía entre diferentes puntos
del soporte SC (o de la imagen I) y diferentes puntos de superficie
de referencia SR (o de la referencia virtual R).
En el transcurso de la etapa ET2.4, se calcula,
para cada punto característico de imagen PT o para cada punto de
referencia PR, un vector que caracteriza el defecto de distorsión
geométrica. La figura 16b ilustra, con un ejemplo de implementación
realizable, esta etapa del procedimiento. En esta figura se
encuentran diferentes valores de puntos de referencia PR repartidos
en la superficie de referencia SR. A cada punto PR se asocia la
proyección matemática H(PT) del punto PT asociado por
biyección PR. Para cada punto, se calcula el vector VM que tiene
como origen PR y como extremo H(PT).
En el transcurso de la etapa ET2.5, se calcula
el campo medido.
Este campo DH, que puede denominarse también
campo de vectores medidos, está constituido por:
- pares de puntos PT y PR seleccionados
asociados por biyección.
- el vector calculado para cada punto.
El campo DH puede estar constituido también
sencillamente por:
- el punto de referencia PR de SR o el punto
característico de imagen PT de SC o la proyección matemática del
punto de referencia PR en SC (o al contrario, por la proyección del
punto característico de imagen PT en SR).
- el vector calculado anteriormente asociado a
este punto.
El campo medido DH puede incluir también
características variables del aparato APP1 (APP2).
El campo DH puede estar constituido también por
una aproximación de informaciones medidas. De esta manera, para
obtener más espacio o tiempo de cálculo, se puede cuantificar la
información formateada con ayuda de un número limitado de bits (3
bits, por ejemplo).
Debe destacarse que durante la etapa ET2.4, el
vector Vm calculado puede ser el que tenga por origen la proyección
matemática H(PT) del punto PT sobre la superficie SR y para
el extremo el punto PR.
O bien el vector VM puede ser el que tenga por
origen el punto característico PT y por extremo la proyección
matemática del punto PR asociado por biyección. Por el contrario, el
vector VM puede ser el que tenga por origen la proyección matemática
de un punto PR asociado por biyección a un punto PT y, por extremo,
este punto PT o cualquier otra combinación que emplee dichos
puntos.
Tal y como hemos visto anteriormente, una
información formateada podía contener características variables. De
hecho, podrá tratarse de una combinación de características
variables como, por ejemplo, una combinación de la focal, de la
puesta a punto, de la abertura del diafragma, de la velocidad de
captura, de la abertura, etc. Es difícil pensar en calcular las
informaciones formateadas relativas a las diferentes combinaciones
dado que ciertas características de la combinación pueden variar de
forma continua como la focal y la distancia especialmente.
La invención prevé, como se representa en la
figura 17, calcular por interpolación las informaciones formateadas
a partir de informaciones formateadas medidas para combinaciones de
características variables conocidas.
Por ejemplo, en la representación simplificada
de la figura 17, cada plano contiene las informaciones formateadas
medidas de una imagen para un valor de combinaciones determinado.
Por ejemplo, el plano f=2 corresponde a la combinación "focal=2,
distancia=7, velocidad de captura=1/100". El plano f=10
corresponde a la combinación "focal=10, distancia=7, velocidad de
captura=1/100". El plano f=50 corresponde a la combinación "
focal=50, distancia=7, velocidad de captura=1/100".
Para un punto PQT cualquiera del soporte o PQR
cualquiera de la superficie de referencia, cuyas características
variables contienen entre otros elementos la combinación:
"focal=25, distancia=7 y velocidad de captura=1/100", se
interpola un valor de información formateada extendida entre los dos
planos f=10 y f=50 de la figura 17 y especialmente, si suponemos que
los planos de la figura 17 representan las informaciones formateadas
medidas de puntos PT de la imagen, entre los dos puntos
PT(10) y PT(50) de los planos f=10 y f=50.
Un ejemplo de realización de la invención
empleará el cálculo de un campo medido tal y como se ha descrito en
relación con las figuras 13 ó 14, después el cálculo de
informaciones formateadas como se ha descrito en relación con las
figuras 15a a 16b. Estos diferentes cálculos se efectuarán para
diferentes combinaciones de características variables o para
diferentes combinaciones con un valor asociado. A continuación, para
un punto cualquiera (PQT o PQR) o un conjunto de puntos cualesquiera
de una imagen I capturada con ayuda de una combinación cualquiera
pero conocida, se interpolan informaciones formateadas extendidas
entre dos planos de informaciones formateadas medidas.
En la figura 17, se considera un caso en que el
punto del que se quiere calcular la información formateada tenía las
mismas coordenadas X e Y que los puntos de los que se conocían las
informaciones formateadas medidas.
La figura 18 representa un caso en que se busca
la información formateada medida de un punto cualquiera PQRi o PQTi
situado entre los planos f=10 y f=50 y cuyas coordenadas no
corresponden a las coordenadas de los puntos de los planos f=10 y
f=50.
En cada punto, se asigna un argumento Ai que
contenga, al menos, las coordenadas Xi e Yi del punto, así como las
características de una combinación de características variables.
El plano f=2 corresponde a una combinación C1.0
de características variables. El plano f=10 corresponde a una
combinación C2.0 y el plano f=50 corresponde a una combinación
Cm.O.
Cada punto del plano f=2 tiene por
argumento:
"coordenadas X, Y; combinación C1.0".
\newpage
El punto PQRi o PQTi del que se busca la
información formateada tiene por argumento:
"coordenadas Xi, Yi; combinación Ci".
En estas condiciones, el procedimiento y sistema
realizarán, por ejemplo, una interpolación entre las informaciones
formateadas medidas de los planos f=10 y f=50.
Para un punto cualquiera PQT/PQR, basta con
volver a introducir, por ejemplo, el argumento (X, Y, focal,
distancia, apertura, escala iso, velocidad, flash, etc.) relativo a
este punto dentro del modelo configurable para encontrar las
informaciones formateadas relativas a este punto.
Una forma eficaz de calcular la homografía entre
la superficie de referencia SR y la superficie de soporte SC puede
realizarse eligiendo en el soporte SC y en la superficie de
referencia SR cuatro puntos PTm1 a PTm4 y PRm1 a PRm4 que se
correspondan por biyección y que se encuentren en los límites
periféricos del soporte SC y de la superficie de referencia SR. Las
posiciones de estos puntos se eligen, por ejemplo, de forma que se
maximicen las superficies comprendidas entre estos puntos.
Además, tal y como se representa en la figura
19c, las posiciones de estos puntos son tales que la intersección de
las diagonales de los cuadriláteros definidos por estos puntos se
encuentra en el centro o cerca del centro de los cuadriláteros.
A continuación se calcula una proyección
matemática (homografía, por ejemplo) que permite transformar los
cuatro puntos característicos PTm.1 a PTm.4 en los cuatro puntos de
referencia PRm.1 a PRm.4.
Esta proyección matemática se asociará a las
informaciones formateadas de la imagen.
Estas informaciones formateadas podrán
utilizarse en un programa de tratamiento de imágenes para corregir
las distorsiones geométricas de perspectivas o para restituir
imágenes con un reducido cambio de perspectiva.
Otra forma de elegir los cuatro puntos PTm.1 a 4
y PRm.1 a 4 consiste en tomar en la imagen I cuatro puntos PTm.1 a 4
de manera que formen un cuadrilátero lo más cercano posible, en un
factor de escala próximo, al cuadrilátero formado por los puntos H
(PRm.1 a 4) proyecciones matemáticas de los puntos PRm. 1 a 4
correspondientes por biyecciones a los puntos PTm. 1 a 4.
Refiriéndose a las figuras 20a a 20d, se
describirán los procedimientos de cálculo de informaciones
formateadas relativas a imágenes en color. Una imagen en color puede
considerarse que está constituida por varias imágenes
monocromáticas. Clásicamente, se puede considerar que una imagen en
color es una imagen tricromática constituida por tres imágenes
monocromáticas (rojo, verde, azul). Se sabe que en óptica las
distorsiones inducidas por las ópticas y los lugares de transmisión
de la luz inducen efectos diferentes en las diferentes longitudes de
onda. En una imagen tricromática, el mismo defecto físico de un
aparato inducirá distorsiones diferentes sobre la imagen vehiculada
por la luz en la longitud de onda del rojo, sobre la vehiculada en
la longitud de onda del verde y en la vehiculada en la longitud de
onda del azul.
Tal y como se representa en la figura 20a, a
partir de un sistema de referencia M tricromático, al que
corresponde una referencia virtual R casi idéntica, corresponderán
en la imagen I tres imágenes R, V y B superpuestas que se han
representado por separado en los planos SCR, SCV y SCB. Las tres
imágenes IR, IV e IB presentan distorsiones diferentes, lo que da
una imagen tricromática que presenta al mismo tiempo la distorsión
geométrica y las aberraciones cromáticas.
La figura 20b representa el principio del
procedimiento y sistema que permiten obtener informaciones
formateadas que permitirán a un programa de tratamiento de imágenes
corregir las distorsiones o las aberraciones cromáticas.
Según este procedimiento y sistema para cada
punto tricromático de la imagen, se calculará un información
formateada por color. Así, vamos a considerar que conviene corregir
tantas imágenes monocromáticas como colores haya. En el ejemplo
tricromático, los cálculos se harán como si tuviésemos que corregir
tres imágenes.
Para el cálculo de informaciones formateadas de
las tres imágenes IR, IV e IB, se utilizan los mismos procedimientos
y sistemas que los descritos en relación con las figuras 13a a
19c.
Según la figura 20b, se ha representado la
superficie SR con una referencia virtual R que incluye puntos
tricromáticos PR(RVB) así como la descomposición de la imagen
I en tres imágenes monocromáticas IR, IV, IB, cada una de las cuales
incluye puntos de un solo color PTR, PTV, PTB.
Una forma de calcular las informaciones
formateadas relativas a un punto tricromático es utilizar la misma
referencia virtual R para los tres planos de colores. Entonces se
utilizan tres proyecciones matemáticas: una proyección matemática HR
para el punto rojo PTR, una proyección HV para el punto verde PTV y
una proyección HB para el punto azul PTB, tal y como se representa
en la figura 20b.
Una segunda forma de proceder para el cálculo de
informaciones formateadas relativas a un punto tricromático es
elegir una sola imagen monocromática IR o IV o IB a partir de la que
se calcule una sola proyección matemática HR o HB o HV. Por ejemplo,
las informaciones formateadas se extraen exclusivamente de la imagen
IR y estas informaciones formateadas se guardarán para las imágenes
verde y azul. Esta forma de proceder es una forma de ahorrar tiempo
de cálculo y espacio en memoria.
Las informaciones formateadas así obtenidas
permitirán corregir las distorsiones geométricas.
Otra forma de proceder, según la figura 20c, es
utilizar la misma referencia virtual R y calcular, para cada plano
de color, las informaciones formateadas utilizando una misma
proyección matemática definida eligiéndola en uno de los planos
monocromáticos. Por ejemplo, sólo se calcula la proyección
matemática HR relativa al punto rojo. A continuación, se aplica esta
proyección matemática a los tres puntos rojo, verde y azul para
calcular las informaciones formateadas de estos tres puntos. En este
caso, se permitirá que un programa de tratamiento de imagen corrija
al mismo tiempo las distorsiones geométricas y las aberraciones
cromáticas de la imagen.
Otra forma de proceder representada en la figura
20d consiste en lo siguiente:
- para la imagen de un color determinado, la
imagen roja IR por ejemplo, se trata de calcular las informaciones
formateadas utilizando una referencia virtual R supuestamente
perfecta y una proyección matemática H(R) de los puntos de la
referencia virtual sobre la superficie de la imagen roja IR, lo que
permitirá corregir las distorsiones de la imagen roja.
- para las imágenes de otros colores, las
imágenes verde y azul, IV e IB, por ejemplo, se trata de utilizar
como referencia virtual R', la imagen de color anterior, la imagen
roja IR según el ejemplo tomado y realizar una misma proyección
matemática H(IRd) de los puntos de esta imagen roja sobre las
superficies de las imágenes verde IV, después azul IB.
Preferentemente, esta proyección matemática será una identidad (o
proyección por identidad) de los puntos de la imagen roja sobre las
imágenes verde y azul. De esta forma, se podrán suprimir las
diferencias (aberraciones cromáticas) entre las imágenes roja, verde
y azul. Las informaciones formateadas de los puntos de imágenes
verde y azul podrán incluir la proyección matemática de los puntos
de la referencia virtual R en la imagen roja así como la proyección
matemática (identidad) de la imagen roja sobre las imágenes verde y
azul respectivamente. Esta forma de proceder puede permitir, llegado
el caso, corregir sólo las distorsiones si se utilizan únicamente
las informaciones formateadas extraídas de la imagen roja que el
cromatismo únicamente si sólo se usan las informaciones formateadas
relativas a las imágenes verde y azul,
o los dos fenómenos simultáneamente si se
utiliza el conjunto de informaciones formateadas.
También hay que destacar en la descripción
anterior que la elección de umbrales para cada modelo configurable
relativo a las aberraciones cromáticas podrá hacerse de forma
diferente al relativo a la distorsión geométrica de manera que se
obtenga más o menos precisión sobre la compensación de este
defecto.
Hay que destacar que la elección de proyecciones
matemáticas sólo puede hacerse para una parte de la imagen. Por
ejemplo, si la imagen I y la referencia virtual R tienen formas tal
y como se representa en la figura 22 y se quiere restituir a la
imagen un efecto de perspectiva, la proyección matemática de los
puntos PR sobre el soporte SC sólo podrá utilizar cuatro puntos PT1
a PT4 y PR1 a PR4 que basten para definir una homografía. Los otros
puntos de la imagen seguirán, a continuación, esta proyección
matemática con miras a obtener una imagen que presente un efecto de
perspectiva como la imagen IC1 representada en la figura 22. Esta
elección de la proyección matemática puede generalizarse de manera
que se obtenga un efecto particular sobre la imagen que corregirán
los programas de tratamiento de imagen con ayuda de las
informaciones formateadas así calculados.
Hay que destacar que para la corrección de
distorsiones, se utilizan los datos cromáticos, pero se podrían
utilizar igualmente los datos de luminancia.
En virtud de lo anterior, se ha considerado que
la referencia virtual R era casi idéntica al sistema de referencia
M. Si se considera la referencia virtual R exactamente idéntica al
sistema de referencia M, se podrán calcular las informaciones
formateadas que permitirán corregir la imagen I para que sea la
réplica exacta del sistema de referencia M.
Se puede prever, tal y como se representa en la
figura 21, que la referencia virtual R esté deformada en relación
con el sistema de referencia M. Por ejemplo, la referencia virtual
tiene una forma trapezoidal mientras que el sistema de referencia M
tiene una forma rectangular. Las informaciones formateadas que se
obtendrán permitirán corregir la imagen I para inducir una
deformación en forma de trapecio en la imagen corregida. Un ejemplo
de aplicación de dicha disposición se encuentra en los proyectores
donde se podrá corregir la deformación bien conocida inducida por
estos aparatos durante las proyecciones, debido a que el eje del haz
de proyección no es perpendicular al plano de la pantalla.
También se puede deformar la referencia virtual
por distorsiones para inducir características, incluso defectos
obtenidos con otros aparatos, salvo los obtenidos por los aparatos
que hayan permitido la imagen I. Por ejemplo, se podrán inducir en
la referencia virtual características de aparatos perfeccionados o,
por el contrario, aparatos antiguos para dar un aspecto particular a
la imagen corregida. Las informaciones formateadas, las
informaciones formateadas medidas o las informaciones formateadas
medidas extendidas y obtenidas con dicha referencia virtual integran
las distorsiones que se han inducido en la referencia virtual, de
manera que las informaciones formateadas o las informaciones
formateadas medidas puedan utilizarse por los programas de
tratamiento de imágenes capturadas por un primer aparato de captura
de imagen, para obtener imágenes de calidad comparable en relación
con las distorsiones, a una de un segundo aparato de captura de
imagen. Esta técnica también se aplica a la restitución de imagen
considerando que un programa de tratamiento de imágenes puede
restituir una imagen por medio de un primer aparato de restitución
de calidad comparable en relación con la distorsión con la
proporcionada por un segundo aparato de restitución.
Por otro lado, se puede prever que las
informaciones formateadas obtenidas, cuando se utilicen por un
programa de tratamiento de imagen, lleven a tener en el contorno de
la imagen corregida zonas no tratadas. Por ejemplo, una imagen no
corregida I representada en la figura 23a podrá dar una imagen
corregida Ic tal y como se representa en la figura 23b y poseerá
zonas no tratadas ZN representadas en negro en la figura 23b.
Las informaciones formateadas podrán modificarse
previamente para obtener un efecto de aumento Ic' tal y como se
representa en la figura 23c de forma que se eliminen las zonas no
tratadas.
De manera práctica durante el calibrado y el
cálculo de informaciones formateadas, se preverá por anticipado
realizar cálculos y apoyar los procedimientos descritos en varias
imágenes, después hacer una media de los resultados obtenidos
eliminando previamente, en caso necesario, los resultados que
parezcan aberrantes.
Además, en el caso de combinaciones en las que
intervengan características variables que puedan tomar un gran
número de valores, se puede prever limitar el número de
combinaciones. Para ello, para estas características variables, se
prevé proceder a un análisis del componente principal. Se trata de
buscar una o varias direcciones particulares de componentes que
correspondan a estas características variables para las que se
tienen distorsiones sensibles. Para otras direcciones,
independientemente de cuáles sean las demás características
variables, se constatará probablemente que hay poca o ninguna
variación de distorsión. No se tendrán en cuenta estas otras
direcciones.
En la dirección favorecida o en las direcciones
favorecidas, se selecciona el número de imágenes de referencia según
diferentes criterios, como, por ejemplo, el hecho de poder predecir
con la precisión deseada la n+1 combinación en función de las n
primeras combinaciones.
En la descripción anterior, se ha considerado
que la imagen está constituida por puntos y que los tratamientos de
procedimientos y sistemas descritos se apoyan en puntos. No
obstante, sin salir del marco de la invención, los procedimientos y
sistemas descritos podrían tratar los conjuntos de puntos que forman
elementos y representan motivos (pastillas, etc.).
En el caso de que el aparato o la cadena de
aparatos posea una característica variable que sólo pueda poseer un
número reducido de valores discretos (tres valores discretos de
focal, por ejemplo), existe interés en cuanto a la precisión de
emplear, según el ejemplo tomado, tres veces el proceso en la focal
fija más que en utilizar una superficie polinomial aproximada que
incluiría la focal como parámetro.
El campo de aplicación puede abarcar el campo de
aplicación relativo a la calidad de las imágenes, entendiéndose que
la calidad de las imágenes puede medirse, entre otras cosas, en
relación con la distorsión residual que incluyen. La invención se
aplica igualmente al ámbito de la medida a partir de la visión por
ordenador conocida con la expresión "metrología por
visión".
Por otro lado, la invención puede utilizarse
para calcular el valor de la focal que se ha utilizado para capturar
una imagen. En efecto, el experto, a partir de una imagen exenta de
distorsiones radiales porque está corregida, puede utilizar las
propiedades geométricas de los puntos de fuga tal y como se describe
en el artículo G.-Q. WEI et al. "Camera Calibration by Vanishing
Point and Cross Ratio", publicado en IEEE International
Conference on Accoustic Speech and Signal Processing, páginas
1630-1633, Glasgow, Gran Bretaña, mayo de 1989. Esto
permitirá obtener la distancia focal del dispositivo de captura o de
restitución de imagen, así como la posición sobre el soporte SC de
imagen de la intersección del eje óptico con este soporte. Estos
datos pueden emplearse, por ejemplo, en las aplicaciones como la
metrología por visión.
Por otro lado, hay que destacar que el
conocimiento del sistema de referencia M se define en una homografía
cerca, que el dispositivo de captura o de restitución de imagen no
requiere ninguna limitación de ortogonalidad en el momento de la
fotografía. Las posiciones de los puntos PT no se encuentran
necesariamente colocadas sobre formas regulares (línea o círculo) y
pueden tener perfectamente una distribución aleatoria. Además, su
posición relativa puede que sólo sea conocida por un factor de
escala cercano.
Si la invención se emplea en el caso de una
cadena de aparatos que incluyan varios aparatos, por ejemplo, un
proyector y un aparato de fotografía, o por ejemplo una impresora y
un escáner, y uno de los aparatos, por ejemplo, el aparato de
fotografía o el escáner presenta pocos defectos o no presenta ningún
defecto de distorsión, el procedimiento y el sistema producen
informaciones formateadas relativas al otro aparato únicamente. Se
trata de un método práctico para producir informaciones formateadas
relativas a un aparato de restitución de imagen, utilizando un
aparato de captura de imagen sin defectos o cuyos defectos se han
medido y corregido previamente.
Si la invención se emplea en el caso de una
cadena de aparatos que incluya varios aparatos, por ejemplo, un
aparato de fotografía y un escáner, el procedimiento y el sistema
producen informaciones formateadas relativas a los dos aparatos. Se
trata de un método práctico para permitir la corrección de defectos
de un aparato de fotografía sin tener por ello que conocer los
defectos del escáner, en el caso en que las imágenes utilizadas por
el presente procedimiento y sistema y por los medios de tratamiento
de imagen se hayan escaneado con el mismo aparato.
En la lectura aparecerán otras características y
ventajas de la invención:
- definiciones, a continuación explicitadas, de
los términos técnicos empleados ilustrados refiriéndose a los
ejemplos indicativos y no limitativos de las figuras 1 a 12.
- la descripción de las figuras 1 a 12.
Se denomina escena 3 a un lugar en el espacio en
tres dimensiones, que corresponde a los objetos 107 iluminados
mediante fuentes luminosas.
Se describirá a continuación, haciendo
referencia a las figuras 3 y 7, lo que se entiende por aparato de
captura de imagen 1 e imagen 103. Se denomina aparato de captura de
imagen 1 a un aparato constituido por una óptica 100, un capturador
o varios capturadores 101, una electrónica 102 y una zona de memoria
16. Dicho aparato de captura de imagen 1 permite, a partir de una
escena 3, obtener imágenes numéricas fijas 103 o animadas grabadas
en la zona de memoria 16 o transmitidas a un dispositivo externo.
Las imágenes animadas están constituidas por una sucesión en el
tiempo de imágenes fijas 103. Dicho aparato de captura de imagen 1
puede tomar la forma, en especial, de un aparato de fotografía, un
camescopio, una cámara conectada a un PC o integrada en el mismo,
una cámara conectada a un asistente personal o integrada en el
mismo, una cámara conectada a un teléfono o integrada en el mismo,
un aparato de videoconferencia o una cámara o aparato de medida
sensible a otras longitudes de onda distintas de la luz visible,
como por ejemplo, una cámara térmica.
Se denomina captura de imagen al procedimiento
que consiste en el cálculo de la imagen 103 mediante el aparato de
captura de imagen 1.
En caso de que un aparato incluya varios
subconjuntos intercambiables, en particular, una óptica 100, se
denomina aparato de captura de imagen 1 a una configuración
particular del aparato.
Se describirá a continuación, haciendo
referencia a la figura 2, qué se entiende por medio de restitución
de imagen 19. Dicho medio de restitución de imagen 19 puede tomar la
forma, especialmente, de una pantalla de visualización, un
televisor, una pantalla plana, un proyector, gafas de realidad
virtual, una impresora.
Dicho modelo de restitución de imagen 19 consta
de:
- una electrónica.
- una o varias fuentes de luz, electrones o
tinta.
- uno o varios moduladores: dispositivos de
modulación de luz, electrones o tinta.
- un dispositivo de focalización, que se
presenta en particular en forma de una óptica en el caso de un
proyector luminoso o en forma de bobinas de focalización de haz
electrónico en el caso de una pantalla de tubo catódico, o en forma
de filtros en el caso de una pantalla plana.
- un soporte de restitución 190 que se presenta
en particular en forma de una pantalla en el caso de una pantalla de
tubo catódico, una pantalla plana o un proyector, en forma de un
soporte de impresión sobre el que se efectúa la impresión en el caso
de una impresora, o en forma de una superficie virtual en el espacio
en el caso de un proyector de imagen virtual.
Dicho medio de restitución de imagen 19 permite,
a partir de una imagen 103, obtener una imagen restituida 191 sobre
el soporte de restitución 190.
Las imágenes animadas están constituidas por una
sucesión en el tiempo de imágenes fijas.
\newpage
Se denomina restitución de imagen al
procedimiento que consiste en la visualización o la impresión de la
imagen por medio de la restitución de imagen 19.
En el caso de que un medio de restitución 19
incluya varios subconjuntos intercambiables o que puedan desplazarse
relativamente uno en relación con el otro, en particular, el soporte
de restitución 190, se denomina medio de restitución de imagen 19 a
una configuración particular.
Se describirá a continuación, haciendo
referencia a la figura 1, qué se entiende por superficie del
capturador 110.
Se denomina superficie del capturador 110 a la
forma en el espacio dibujado por la superficie sensible del
capturador 101 del aparato de captura de imagen 1 en el momento de
la captura de imagen. Esta superficie es generalmente plana.
Se denomina centro óptico 111 a un punto en el
espacio asociado a la imagen 103 en el momento de la captura de
imagen. Se denomina distancia focal a la distancia entre este punto
111 y el plano 110, en el caso de que la superficie del capturador
110 sea plana.
Se describirá a continuación, haciendo
referencia a la figura 3, lo que se entiende por píxel 104 y valor
de píxel.
Se denomina píxel 104 a una zona elemental de la
superficie del capturador 110 obtenida creando un pavimento
generalmente regular de dicha superficie del capturador 110. Se
denomina valor de píxel a un número asociado a este píxel 104.
Una captura de imagen consiste en determinar el
valor de cada píxel 104. El conjunto de estos valores constituye la
imagen 103.
Durante una captura de imagen, el valor de píxel
se obtiene por la integración de la superficie del píxel 104,
durante un periodo de tiempo denominado tiempo de exposición, de una
parte del flujo luminoso procedente de la escena 3 a través de la
óptica 100 por conversión del resultado de esta integración en valor
numérico. La integración del flujo luminoso o la conversión del
resultado de esta integración en valor numérico se efectúan por
medio de la electrónica 102.
Esta definición de la noción de valor de píxel
se aplica en el caso de imágenes 103 en blanco y negro o en color,
ya sean fijas o animadas.
No obstante, según los casos, la parte del flujo
luminoso en cuestión se obtiene de diversas formas:
a) en el caso de una imagen 103 en color, la
superficie del capturador 110 incluye generalmente varios tipos de
píxeles 104, respectivamente asociados a flujos luminosos de
longitudes de onda diferentes, tales como, por ejemplo, píxeles
rojos, verdes y azules.
b) en el caso de una imagen 103 en color, puede
haber también varios capturadores 101 yuxtapuestos cada uno de los
cuales recibe una parte del flujo luminoso.
c) en el caso de una imagen 103 en color, los
colores utilizados pueden ser diferentes del rojo, verde y azul,
como por ejemplo para la televisión NTSC americana, y pueden ser
superiores en número a tres.
d) por último, en el caso de una cámara de
televisión de barrido, llamado entrelazado, las imágenes animadas
producidas están constituidas por una alternancia de imágenes 103
que incluyen las líneas pares y las imágenes 103 que incluyen las
líneas impares.
Se denomina configuración utilizada a la lista
de subconjuntos amovibles del aparato de captura de imagen 1, por
ejemplo, la óptica 100 efectivamente montada en el aparato de
captura de imagen 1 si es intercambiable. La configuración utilizada
se caracteriza concretamente por:
- el tipo de óptica 100.
- el número de serie de la óptica 100 o
cualquier otra denominación.
Se denomina ajustes utilizados a:
- la configuración utilizada tal y como se ha
definido anteriormente, así como
\global\parskip0.950000\baselineskip
- al valor de los ajustes manuales o automáticos
disponibles en la configuración utilizada y que tenga una influencia
sobre el contenido de la imagen 103. Estos ajustes puede efectuarlos
el usuario, especialmente con ayuda de botones o puede calcularlos
el aparato de captura de imagen 1. Estos ajustes pueden almacenarse
en el aparato, en concreto en un soporte amovible, o en cualquier
dispositivo conectado al aparato. Estos ajustes pueden incluir los
ajustes de focalización, diafragma, focal de la óptica 100, los
ajustes de tiempo de exposición, los ajustes de equilibrio de
blancos, los ajustes de tratamiento de imagen integrados como el
zoom numérico, la compresión, el contraste.
Se denomina características utilizadas 74 o
juego de características utilizadas 74 a:
a) parámetros relacionados con las
características técnicas intrínsecas del aparato de captura de
imagen 1, determinadas en el momento de diseñar el aparato de
captura de imagen 1. Por ejemplo, estos parámetros pueden incluir la
fórmula de la óptica 100 de la configuración utilizada que influye
en los defectos geométricos y el punteado de las imágenes
capturadas; la fórmula de la óptica 100 de la configuración
utilizada incluye, en concreto, la forma, la disposición y el
material de las lentes de la óptica 100.
Estos parámetros también pueden constar de los
siguientes elementos:
- la geometría del capturador 101, a saber la
superficie del capturador 110, así como la forma y la disposición
relativa de los píxeles 104 sobre esta superficie.
- el ruido generado por la electrónica 102.
- la ley de conversión de flujos luminosos en
valor de píxel.
b) parámetros relacionados con las
características técnicas intrínsecas del aparato de captura de
imagen 1, determinadas en el momento de la fabricación del aparato
de captura de imagen 1, en concreto:
- el posicionamiento exacto de las lentes en la
óptica 100 de la configuración utilizada.
- el posicionamiento exacto de la óptica 100 en
relación con el capturador 101.
c) parámetros relacionados con las
características técnicas del aparato de captura de imagen 1,
determinadas en el momento de la captura de la imagen 103 y en
concreto:
- la posición y la orientación de la superficie
del capturador 110 en relación con la escena 3.
- los ajustes utilizados.
- los factores exteriores, como la temperatura,
si son influyentes.
d) las preferencias del usuario, en concreto, la
temperatura del color que hay que utilizar para la restitución de
imágenes. Estas preferencias las selecciona, por ejemplo, el usuario
con ayuda de los botones.
Las características utilizadas 74 incluyen, en
particular, la noción de características variables.
Se describirá a continuación, haciendo
referencia a la figura 1, lo que se entiende por punto de
observación 105 y dirección de observación 106.
Se denomina superficie matemática 10 a una
superficie geométricamente asociada a la superficie del capturador
110. Por ejemplo, si la superficie del capturador es plana, la
superficie matemática 10 podrá confundirse con la del
capturador.
Se denomina dirección de observación 106 a una
recta que pasa por, al menos, un punto de la escena 3 y por el
centro óptico 111. Se denomina punto de observación 105 a la
intersección de la dirección de observación 106 y de la superficie
10.
Se describirá, a continuación, haciendo
referencia a la figura 1, lo que se entiende por color observado e
intensidad observada. Se denomina color observado al color de la luz
emitida, transmitida o reflejada por dicha escena 3 en dicha
dirección de observación 106 en un momento dado, y observada desde
dicho punto de observación 105. Se denomina intensidad observada a
la intensidad de la luz emitida por dicha escena 3 en dicha
dirección de observación 106 en el mismo momento, y observada desde
dicho punto de observación 105.
El color puede estar especialmente caracterizado
por una intensidad luminosa en función de una longitud de onda o
incluso por dos valores tales como los medidos por un colorímetro.
La intensidad puede caracterizarse por un valor tal que se mida con
un fotómetro.
\global\parskip1.000000\baselineskip
Dicho color observado y dicha intensidad
observada dependen particularmente de la posición relativa de los
objetos 107 en la escena 3 y de las fuentes de iluminación
presentes, así como de las características de transparencia y de
reflexión de los objetos 107 en el momento de la observación.
Proyección matemática, imagen matemática, punto
matemático, color matemático de un punto, intensidad matemática de
un punto, forma matemática de un punto, posición matemática de un
punto.
De forma general, una transformación matemática
tal como una proyección matemática es una operación que permite
establecer una correspondencia entre una primera imagen y una
segunda imagen y con más precisión entre un punto de una primera
imagen y un punto de una segunda imagen.
En las figuras 1 a 9d, y en concreto en la
figura 5, una proyección matemática 8 tiene por objeto realizar, a
partir de una imagen real o de una escena 3, una imagen matemática
70 o a partir de una escena de referencia 9 una imagen de
síntesis.
En las figuras 13a a 23c, y en particular la
figura 14a, una proyección matemática H tiene por objeto establecer
una relación entre una imagen real (la imagen I en la figura 14a) y
una referencia virtual (R en la figura 14a), de forma que se
establezcan las diferencias entre la imagen y la referencia virtual,
de forma que se tengan los datos para corregir la imagen real.
Se describirán a continuación con más precisión,
haciendo referencia, por ejemplo, a las figuras 1, 5, 9a, 9b, 9c y
9d las nociones de proyección matemática 8, imagen matemática 70,
punto matemático, color matemático de un punto, intensidad
matemática de un punto, forma matemática 41 de un punto, posición
matemática 40 de un punto.
En primer lugar, se describirá, haciendo
referencia a la figura 5, cómo se realiza una imagen matemática 70
por proyección matemática determinada 8 de, al menos, una escena 3
sobre la superficie matemática 10.
Se describirá previamente qué se entiende por
proyección matemática determinada 8. Una proyección matemática
determinada 8 se asocia:
- a una escena 3 en el momento de la captura de
una imagen 103.
- a las características utilizadas 74, una
imagen matemática 70.
Una proyección matemática determinada 8 es una
transformación que permite determinar las características de cada
punto de la imagen matemática 70 a partir de la escena 3 en el
momento de la captura de imagen y de las características utilizadas
74.
De manera preferente, la proyección matemática 8
se define de la forma que se describe más abajo.
Se denomina posición matemática 40 del punto a
la posición del punto de observación 105 sobre la superficie
matemática 10.
Se denomina forma matemática 41 del punto a la
forma geométrica, puntual, del punto de observación 105.
Se denomina color matemático del punto al color
observado.
Se denomina intensidad matemática del punto a la
intensidad observada.
Se denomina punto matemático a la asociación de
la posición matemática 40, la forma matemática 41, el color
matemático y la intensidad matemática del punto de observación 105
considerado. La imagen matemática 70 está constituida por el
conjunto de dichos puntos matemáticos.
La proyección matemática 8 de la escena 3 es la
imagen matemática 70.
A continuación se describirán, haciendo
referencia en concreto a las figuras 3, 5, 9a, 9b, 9c y 9d las
nociones de proyección real 72, punto real, color real de un punto,
intensidad real de un punto, forma real 51 de un punto, posición
real 50 de un punto.
Durante una captura de imagen, el aparato de
captura de imagen 1 asociado a las características utilizadas 74
produce una imagen. Así, en las figuras 1 y 7, se obtiene una imagen
103 de la escena 3 y en las figuras 13 a y 14 a , se obtiene una
imagen I del sistema de referencia M. En la figura 1, la luz
procedente de la escena 3 según una dirección de observación 106,
atraviesa el óptica 100 y llega a la superficie del capturador
110.
\newpage
Para dicha dirección de observación se obtiene
lo que se denomina un punto real (o punto característico PT en la
figura 3a) que presenta diferencias en relación con el punto
matemático (o punto de referencia PR en la figura 3a).
Refiriéndose a las figuras 9a a 9d, se
describirán a continuación las diferencias entre el punto real y el
punto matemático.
La forma real 51 asociada a la mencionada
dirección de observación 106 no es un punto en la superficie del
capturador, sino una forma de sombra en el espacio de tres
dimensiones, que tiene una intersección con uno o varios píxeles
104. Estas diferencias tienen por origen, en particular, la coma, la
aberración esférica, el astigmatismo, la agrupación de píxeles 104,
la aberración cromática, la profundidad de campo, la difracción, las
reflexiones parásitas, la cobertura de campo del aparato de captura
de imagen 1. Dan una impresión de efecto borroso, de carencia de
punteado de la imagen 103.
Además, la posición real 50 asociada a dicha
dirección de observación 106 presenta una diferencia en relación con
la posición matemática 40 de un punto. Esta diferencia, en
particular, tiene por origen la distorsión geométrica, que da una
impresión de deformación: por ejemplo, las paredes verticales
parecen curvas. También se deriva del hecho de que el número de
píxeles 104 está limitado y, en consecuencia, la posición real 50
sólo puede tomar un número finito de valores.
Por otro lado, la intensidad real asociada a
dicha dirección de observación 106 presenta diferencias en relación
con la intensidad matemática de un punto. Estas diferencias tienen
por origen, en concreto, el gamma y la formación de viñetas: por
ejemplo, los bordes de la imagen 103 parecen más oscuros. Además,
puede añadirse ruido a la señal.
Por último, el color real asociado a dicha
dirección de observación 106 presenta diferencias en relación con el
color matemático de un punto. Estas diferencias tienen por origen,
en particular, el gamma y la dominante coloreada. Además, puede
añadirse ruido a la señal.
Se denomina punto real a la asociación de la
posición real 50, de la forma real 51, del color real y de la
intensidad real para la dirección de observación 106
considerada.
La proyección real 72 de la escena 3 está
constituida por el conjunto de puntos reales.
En una variante de realización, se denomina
modelo de transformación configurable 12 (o de manera resumida,
transformación configurable 12) a una transformación matemática que
permite obtener, a partir de una imagen 103 y del valor de los
parámetros, una imagen corregida 71. Dichos parámetros pueden
calcularse especialmente a partir de características utilizadas 74
como se indica a continuación.
Dicha transformación permite, en particular,
determinar para cada punto real de la imagen 103 la posición
corregida de dicho punto real, el color corregido de dicho punto
real, la intensidad corregida de dicho punto real, la forma
corregida de dicho punto real, a partir del valor de los parámetros,
de la posición real de dicho punto real y de los valores de los
píxeles de la imagen 103. La posición corregida puede calcularse,
por ejemplo, mediante polinomios de grado fijo en función de la
posición real, donde los coeficientes de polinomios dependen del
valor de los parámetros. El color corregido y la intensidad
corregida pueden ser, por ejemplo, sumas ponderadas de valores de
píxeles; los coeficientes dependen del valor de los parámetros y de
la posición real, o incluso de funciones no lineales de valores de
píxeles de la imagen 103.
Los valores pueden incluir, en concreto: la
focal de la óptica 100 de la configuración utilizada o un valor
relacionado, como la posición de un grupo de lentes, la focalización
de la óptica 100 de la configuración utilizada o un valor
relacionado, como la posición de un grupo de lentes, la apertura de
la óptica 100 de la configuración utilizada o un valor relacionado,
como la posición del diafragma.
En referencia a la figura 5, se denomina
diferencia 73 entre la imagen matemática 70 y la imagen corregida
71, para una escena 3 dada y características utilizadas 74 dadas, a
uno o varios valores determinados a partir de números que
caracterizan la posición, el color, la intensidad, la forma de todos
o parte de los puntos corregidos y de todos o parte de los puntos
matemáticos.
Por ejemplo, la diferencia 73 entre la imagen
matemática 70 y la imagen corregida 71 para una escena 3 dada y
características utilizadas 74 dadas puede determinarse de la forma
siguiente:
- se eligen puntos característicos que pueden
ser, por ejemplo, los puntos de una tabla ortogonal 80 de puntos
dispuestos regularmente tal y como se presenta en la figura 10.
- se calcula la diferencia 73, por ejemplo,
efectuando la suma para cada punto característico de los valores
absolutos de diferencias entre cada número que caracteriza la
posición, el color, la intensidad, la forma respectivamente para el
punto corregido y para el punto matemático. La función suma de
valores absolutos de diferencias puede sustituirse por otra función
como la media, la suma de cuadrados o cualquier otra función que
permita combinar los números.
Se denomina escena de referencia 9 (o sistema de
referencia M en las figuras 13a y siguientes) a una escena 3 de la
que se conocen ciertas características. A modo de ejemplo, la figura
4a presenta una escena de referencia 9 constituida por una hoja de
papel que contiene círculos rellenos de negro y dispuestos
regularmente. La figura 4b presenta otra hoja de papel que contiene
los mismos círculos a los que se añaden rayas y superficies
coloreadas. Los círculos sirven para medir la posición real 50 de un
punto, las rayas la forma real 51 de un punto, las superficies
coloreadas, el color real de un punto y la intensidad real de un
punto. Esta escena de referencia 9 puede estar formada por otro
material distinto del papel.
En referencia a la figura 12, se definirá a
continuación la noción de imagen de referencia 11 (o imagen I en el
soporte SC de las figuras 13a y siguientes). Se denomina imagen de
referencia 11 a una imagen de la escena de referencia 9 obtenida con
el aparato de captura de imagen 1.
En referencia a la figura 12, se definirá a
continuación la noción de imagen de síntesis y de clase de imágenes
de síntesis 7. Se denomina imagen de síntesis a una imagen
matemática 70 obtenida por proyección matemática 8 de una escena de
referencia 9. Se denomina clase de imágenes de síntesis 7 a un
conjunto de imágenes matemáticas 70 obtenidas por proyección
matemática 8 de una o varias escenas de referencia 9, para uno o
varios juegos de características utilizadas 74. En caso de que haya
una escena de referencia 9 y un juego de características utilizadas
74, la clase de imágenes de síntesis 7 sólo incluye una imagen de
síntesis. En las figuras 13a y siguientes, la referencia virtual R
de la superficie virtual SR puede considerarse una imagen de
síntesis.
En referencia a la figura 12, se definirá a
continuación la noción de imagen transformada 13. Se denomina imagen
transformada 13 a la imagen corregida obtenida por aplicación de un
modelo de transformación configurable 12 a una imagen de referencia
11.
Se describirá a continuación, haciendo
referencia a la figura 12, la noción de imagen transformada 13
próxima a una clase de imágenes de síntesis 7 y la noción de
desviación residual 14.
La diferencia entre una imagen transformada 13 y
una clase de imágenes de síntesis 7 se define como la menor
diferencia entre dicha imagen transformada 13 y cualquiera de las
imágenes de síntesis de dicha clase de imágenes de síntesis.
A continuación, se describirá cómo se elige
entre los modelos de transformación configurables 12 aquél que
permite transformar cada imagen de referencia 11 en una imagen
transformada 13 próxima a la clase de imágenes de síntesis 7 de la
escena de referencia 9 correspondiente a dicha imagen de referencia
11 en diferentes casos de escenas de referencia 9 y características
utilizadas 74.
- En el caso de una escena de referencia 9 dada
asociada a un conjunto de características utilizadas 74 dadas, se
selecciona la transformación configurable 12 (y sus parámetros) que
permite transformar la imagen de referencia 11 en la imagen
transformada 13 que presenta la menor diferencia con la clase de
imágenes de síntesis 7. La clase de imagen de síntesis 7 y la imagen
transformada 13 se denominan entonces próximas. Se denomina
desviación residual 14 a dicha diferencia.
- En el caso de un grupo de escenas de
referencia dadas asociadas a conjuntos de características utilizadas
74 dadas, se selecciona la transformación configurable 12 (y sus
parámetros) en función de las diferencias entre la imagen
transformada 13 de cada escena de referencia 9 y la clase de
imágenes de síntesis 7 de cada escena de referencia 9 considerada.
Se elige la transformación configurable 12 (y sus parámetros) que
permite transformar las imágenes de referencia 11 en imágenes
transformadas 13 de manera que la suma de dichas diferencias sea la
menor. La función de suma puede sustituirse por otra función, como
el producto. La clase de imágenes de síntesis 7 y las imágenes
transformadas 13 se denominan entonces próximas. Se denomina
desviación residual 14 a un valor obtenido a partir de dichas
diferencia, por ejemplo, calculando la media.
- En el caso de que ciertas características
utilizadas 74 sean desconocidas, se pueden determinar a partir de la
captura de varias imágenes de referencia 11 de, al menos, una escena
de referencia 9. En este caso, se determinan simultáneamente las
características desconocidas y la transformación configurable 12 (y
sus parámetros) que permite transformar las imágenes de referencia
11 en imágenes transformadas 13, de manera que la suma de dichas
diferencias sea la menos, especialmente por cálculo iterativo o por
resolución de ecuaciones relativas a la suma de dichas diferencias o
su producto o cualquier otra combinación apropiada de dichas
diferencias. La clase de imagen de síntesis 7 y las imágenes
transformadas 13 se denominan entonces próximas. Las características
no conocidas pueden ser, por ejemplo, las posiciones y las
orientaciones relativas de la superficie del capturador 110 y de
cada escena de referencia 9 considerada. Se
denomina desviación residual 14 a un valor obtenido a partir de dichas diferencias, por ejemplo, calculando la media.
denomina desviación residual 14 a un valor obtenido a partir de dichas diferencias, por ejemplo, calculando la media.
Se denomina mejor transformación a la
transformación que, entre los modelos de transformación
configurables 12, permite transformar cada imagen de referencia 11
en una imagen transformada 13, próxima a la clase de imágenes de
síntesis 7 de la escena de referencia 9, correspondiente a dicha
imagen de referencia 11.
Se denomina calibrado a un procedimiento que
permite obtener datos relativos a las características intrínsecas
del aparato de captura de imagen 1, para una o varias
configuraciones utilizadas, cada una de ellas formada por una óptica
100 asociada a un aparato de captura de imagen 1.
Caso 1: en el caso de que sólo haya una
configuración, dicho procedimiento consta de las etapas
siguientes:
- la etapa de montar dicha óptica 100 sobre
dicho aparato de captura de imagen 1.
- la etapa de seleccionar una o varias escenas
de referencia 9.
- la etapa de seleccionar varias características
utilizadas 74.
- la etapa de capturar imágenes de dichas
escenas de referencia 9 para dichas características utilizas.
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondiente a las
mismas características utilizadas 74.
Caso 2: en el caso de que se considere que todas
las configuraciones corresponden a un aparato de captura de imagen 1
dado y a todas las ópticas 100 de un mismo tipo, dicho procedimiento
incluye las etapas siguientes:
- la etapa de seleccionar una o varias escenas
de referencia 9.
- la etapa de seleccionar varias características
utilizadas 74.
- la etapa de calcular imágenes 103 a partir de
características utilizadas 74 y, especialmente, fórmulas de óptica
100 de la configuración utilizada y valores de parámetros, por
ejemplo, con ayuda de un programa de cálculo de óptica por trazado
de rayos.
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondiente a las
mismas características utilizadas.
Caso 3: en el caso de que se considere que todas
las configuraciones corresponden a una óptica 100 dada y a todos los
aparatos de captura de imagen 1 de un mismo tipo, dicho
procedimiento incluye las etapas siguientes:
- la etapa de montar dicha óptica 100 sobre un
aparato de captura de imagen 1 del tipo considerado.
- la etapa de seleccionar una o varias escenas
de referencia 9.
- la etapa de seleccionar varias características
utilizadas 74.
- la etapa de capturar imágenes de dichas
escenas de referencia 9 para dichas características utilizadas.
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondiente a las
mismas características utilizadas.
El calibrado puede efectuarlo, de manera
preferente, el fabricante del aparato de captura de imagen 1, esto
se aplica para cada aparato y la configuración en el caso 1. Este
método es más preciso pero más limitado y bien adaptado en el caso
en que no se pueda cambiar la óptica 100.
De forma alternativa, el calibrado puede
efectuarlo el fabricante del aparato de captura de imagen 1, esto se
aplica para cada tipo y configuración de aparato en el caso 2. Este
método es menos preciso, pero más sencillo.
De forma alternativa, el calibrado puede
efectuarlo el fabricante del aparato de captura de imagen 1, esto se
aplica para cada óptica 100 y tipo de aparato en el caso 3. Este
método es un compromiso que permite utilizar una óptica 100 en todos
los aparatos de captura de imagen 1 de un tipo sin volver a efectuar
el calibrado para cada combinación de aparato de captura de imagen 1
y óptica 100.
De forma alternativa, el calibrado puede
efectuarlo el revendedor o instalador del aparato, esto se aplica
para cada aparato de captura de imagen 1 y configuración en el caso
1.
De forma alternativa, el calibrado puede
efectuarlo el revendedor o instalador del aparato, esto se aplica
para cada óptica 100 y tipo de aparato en el caso 3.
De forma alternativa, el calibrado puede
efectuarlo el usuario del aparato, esto se aplica para cada aparato
y configuración en el caso 1.
De forma alternativa, el calibrado puede
efectuarlo el usuario del aparato, esto se aplica para cada óptica
100 y tipo de aparato en el caso 3.
Se denomina diseño de óptica numérica a un
procedimiento de disminución del coste de la óptica 100, que
consiste en:
- crear o seleccionar en un catálogo un óptica
100 que tenga defectos, en concreto de posicionamiento de los puntos
reales.
- disminuir el número de lentes.
- simplificar la forma de las lentes.
- utilizar materiales, tratamientos o
procedimientos de fabricación menos costosos.
Dicho procedimiento incluye las etapas
siguientes:
- la etapa de seleccionar una diferencia (en el
sentido anteriormente definido) aceptable.
- la etapa de seleccionar una o varias escenas
de referencia 9.
- la etapa de seleccionar varias características
utilizadas 74.
Dicho procedimiento incluye además la repetición
de las siguientes etapas:
- la etapa de seleccionar una fórmula óptica que
contenga, en concreto, la forma, el material y la disposición de las
lentes.
- la etapa de calcular imágenes 103 a partir de
características utilizadas 74 y en concreto fórmulas de óptica 100
de la configuración utilizada, empleando, por ejemplo, un programa
de cálculo de óptica mediante trazado de rayos o efectuando medidas
en un prototipo.
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondiente a las
mismas características utilizadas 74.
- la etapa de verificar si la diferencia es
aceptable hasta que la diferencia sea aceptable.
Se denomina informaciones formateadas 15
asociadas a la imagen 103 o informaciones formateadas 15, a todos o
a parte de los datos siguientes:
- datos relativos a las características técnicas
intrínsecas del aparato de captura de imagen 1, en concreto, las
características de distorsión, o
- datos relativos a las características técnicas
intrínsecas del aparato de captura de imagen 1 en el momento de la
captura de imagen, en concreto, el tiempo de exposición, o
- datos relativos a las preferencias del usuario
mencionado, en concreto, la temperatura de los colores, o
- datos relativos a las desviaciones residuales
14.
Se denomina base de datos de características 22
a una base de datos que incluye, para uno o varios aparatos de
captura de imagen 1 y para una o varias imágenes 103, informaciones
formateadas 15.
\global\parskip0.950000\baselineskip
Dicha base de datos de características 22 puede
almacenarse de manera centralizada o descentralizada y puede estar
especialmente:
- integrada en el aparato de captura de imagen
1.
- integrada en la óptica 100.
- integrada en un dispositivo de almacenamiento
amovible.
- integrada en un PC u otro ordenador conectado
a otros elementos durante la captura de imagen.
- integrada en un PC u otro ordenador conectado
a otros elementos tras la captura de imagen.
- integrada en un PC u otro ordenador capaz de
leer un soporte de almacenamiento común con el aparato de captura de
imagen 1.
- integrada en un servidor a distancia conectado
a un PC u otro ordenador conectado este último a otros elementos de
captura de imagen.
Se definirá a continuación la noción de campos
90, haciendo referencia a la figura 8. Las informaciones formateadas
15 asociadas a la imagen 103 pueden guardarse de varias formas y
estructurarse en una o varias tablas, pero corresponden lógicamente
a todos o parte de los campos 90, que constan de:
(a) la distancia focal.
(b) la profundidad de campo.
(c) los defectos geométricos.
Dichos defectos geométricos incluyen los
defectos de geometría de la imagen 103 caracterizados por los
parámetros asociados a las características de la fotografía 74 y una
transformación configurable que representa las características del
aparato de captura de imagen 1 en el momento de la fotografía.
Dichos parámetros y dicha transformación configurable permiten
calcular la posición corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además la
formación de viñetas caracterizada por los parámetros asociados a
las características de fotografía 74 y una transformación
configurable que representa las características del aparato de
captura de imagen 1 en el momento de la fotografía. Dichos
parámetros y dicha transformación configurable permiten calcular la
intensidad corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además la
dominante coloreada caracterizada por los parámetros asociados a las
características de la fotografía 74 y una transformación
configurable que representa las características del aparato de
captura de imagen 1 en el momento de la fotografía. Dichos
parámetros y dicha transformación configurable permiten calcular el
color corregido de un punto de la imagen 103.
Dichos campos 90 incluyen además (d) el punteado
de la imagen 103.
Dicho punteado incluye el efecto borroso de
resolución de la imagen 103 caracterizada por los parámetros
asociados a las características de la fotografía 74 y a una
transformación configurable que representa las características del
aparato de captura de imagen 1 en el momento de la fotografía.
Dichos parámetros y dicha transformación configurable permiten
calcular la forma corregida de un punto de la imagen 103. El efecto
borroso abarca, especialmente, la coma, la aberración esférica, el
astigmatismo, la agrupación de píxeles 104, la aberración cromática,
la profundidad de campo, la difracción, las reflexiones parásitas,
la curvatura de campo.
Dicho punteado incluye además el efecto borroso
de profundidad de campo, especialmente las aberraciones esféricas,
la coma, el astigmatismo. Dicho efecto borroso depende de la
distancia de los puntos de la escena 3 en relación con el aparato de
captura de imagen 1 y se caracteriza por los parámetros asociados a
las características de la fotografía 74 y una transformación
configurable que representa las características del aparato de
captura de imagen 1 en el momento de la fotografía. Dichos
parámetros y dicha transformación configurable permiten calcular la
forma corregida de un punto de la imagen 103.
Dichos campos 90 incluyen además (e) parámetros
del método de cuantificación. Dichos parámetros dependen de la
geometría y la física del capturador 101, de la arquitectura de la
electrónica 102 y de los posibles programas de tratamiento.
Dichos parámetros incluyen una función que
representa las variaciones de la intensidad de un píxel 104 en
función de la longitud de onda y del flujo luminoso procedente de
dicha escena 3. Dicha función incluye especialmente los datos de
gamma.
\global\parskip1.000000\baselineskip
Dichos parámetros incluyen además:
- la geometría de dicho capturador 101, en
concreto la forma, la posición relativa y el número de elementos
sensibles de dicho capturador 101.
- una función que representa la distribución
espacial y temporal del ruido del aparato de captura de imagen
1.
- un valor que representa el tiempo de
exposición de la captura de imagen.
Dichos campos 90 incluyen además (f) parámetros
de tratamientos numéricos efectuados por el aparato de captura de
imagen 1, en concreto el zoom numérico y la compresión. Estos
parámetros dependen del programa de tratamiento del aparato de
captura de imagen 1 y de los ajustes del usuario.
Dichos campos 90 incluyen además:
(g) parámetros que representan las preferencias
del usuario, especialmente en relación con el grado de efecto
borroso y la resolución de la imagen 103.
(h) las desviaciones residuales 14.
Las informaciones formateadas 15 pueden
calcularse y guardarse en la base de datos 22 en varias etapas.
a) Una etapa al terminar el diseño del aparato
de captura de imagen 1.
Esta etapa permite obtener características
técnicas intrínsecas del aparato de captura de imagen 1, en
concreto:
- la distribución espacial y temporal del ruido
generado por la electrónica 102.
- la ley de conversión del flujo luminoso en
valor de píxel.
- la geometría del capturador 101.
b) Una etapa al terminar el calibrado o diseño
de óptica numérica.
Esta etapa permite obtener otras características
técnicas intrínsecas del aparato de captura de imagen 1 y, en
especial, para cierto número de valores característicos utilizados,
la mejor transformación asociada y la desviación residual 14
asociada.
c) Una etapa de selección de preferencias del
usuario con ayuda de botones, menús o soporte amovible o conexión a
otro dispositivo.
d) Una etapa de captura de imagen.
Esta etapa (d) permite obtener características
técnicas del aparato de captura de imagen 1 en el momento de la
captura de imagen y, en concreto, el tiempo de exposición,
determinado por los ajustes manuales o automáticos efectuados.
La etapa (d) permite además obtener la distancia
focal. La distancia focal se calcula a partir de:
- una medida de la posición del grupo de lentes
de focal variable de la óptica 100 de la configuración utilizada,
o
- una consigna dada al motor de posicionamiento,
o
- un dato del fabricante si la focal es
fija.
Finalmente, dicha distancia focal puede
determinarse mediante el análisis del contenido de la imagen
103.
La etapa (d) permite además obtener la
profundidad de campo. La profundidad de campo se calcula a partir
de:
- una medida de la posición del grupo de lentes
de focalización de la óptica 100 de la configuración utilizada,
- una consiga dada al motor de posicionamiento
o,
- un dato del fabricante si la profundidad de
campo es fija.
\newpage
La etapa (d) permite obtener los defectos de
geometría y de punteado. Los defectos de geometría y de punteado
corresponden a una transformación calculada con ayuda de una
combinación de transformaciones de la base de datos de
características 22 obtenidas al terminar una etapa (b). Esta
combinación se elige para representar los valores de parámetros
correspondientes a las características utilizadas 74, en especial la
distancia focal.
La etapa (d) permite obtener además los
parámetros numéricos de tratamiento efectuados por el aparato de
captura de imagen 1. Estos parámetros se determinan mediante los
ajustes manuales o automáticos efectuados.
El cálculo de informaciones formateadas 15 según
las etapas (a) a (d) puede realizarse mediante:
- un dispositivo o programa integrado en el
aparato de captura de imagen 1, o
- un programa piloto en un PC u otro ordenador,
o
- un programa en un PC u otro ordenador, o
- una combinación de los tres.
Las transformaciones anteriormente mencionadas
en la etapa (b) y en la etapa (d) pueden almacenarse en forma
de:
- una fórmula matemática general.
- una fórmula matemática para cada punto.
- una fórmula matemática para algunos puntos
característicos.
Las fórmulas matemáticas pueden describirse
mediante:
- una lista de coeficientes.
- una lista de coeficientes y de
coordenadas.
Estos diferentes modelos permiten crear un
compromiso entre el tamaño de la memoria disponible para almacenar
las fórmulas y la potencia de cálculo disponible para calcular las
imágenes corregidas 71.
Además, con el fin de encontrar los datos, los
identificadores asociados a los datos se guardan en la base de datos
22. Entre estos identificadores se incluyen:
- un identificador del tipo y de la referencia
del aparato de captura de imagen 1.
- un identificador del tipo y de la referencia
de la óptica 100 si es amovible.
- un identificador del tipo y de la referencia
de cualquier otro elemento amovible que tenga relación con los datos
almacenados.
- un identificador de la imagen 103.
- un identificador de la información formateada
15.
Tal y como se describe en la figura 11, se
denomina imagen completada 120 a la imagen 103 asociada a las
informaciones formateadas 15. Esta imagen completada 120 puede tomar
la forma, de manera preferente, de un archivo. La imagen completada
120 puede estar distribuida en varios archivos.
La imagen completada 120 puede calcularse por
medio del aparato de captura de imagen 1. También puede calcularse
por medio de un dispositivo de cálculo externo, por ejemplo, un
ordenador.
Se denomina programa de tratamiento de imagen 4
a un programa que puede admitir una o varias imágenes completadas
120 y que efectúa tratamientos de estas imágenes. Estos tratamientos
pueden consistir especialmente en:
- calcular una imagen corregida 71.
- efectuar medidas en el mundo real.
- combinar varias imágenes.
- mejorar la fidelidad de las imágenes en
relación con el mundo real.
- mejorar la calidad subjetiva de las
imágenes.
- detectar objetos o personas 107 en una escena
3.
- añadir objetos o personas 107 a una escena
3.
- sustituir o modificar objetos o personas 107
en una escena 3.
- retirar las sombras de una escena 3.
- añadir las sombras a una escena 3.
- buscar objetos en una base de imágenes.
Dicho programa de tratamiento de imagen
puede:
- estar integrado en el aparato de captura de
imagen 1.
- ejecutarse en medios de cálculo 17 conectados
al aparato de captura de imagen 1 a través de medios de transmisión
18.
Se denomina óptica numérica a la combinación de
un aparato de captura de imagen 1, una base de datos de
características 22 y un medio de cálculo 17, que permita:
- la captura de imagen de una imagen 103.
- el cálculo de la imagen completada.
- el cálculo de la imagen corregida 71.
De manera preferente, el usuario obtiene
directamente la imagen corregida 71. Si el usuario lo desea, puede
pedir la supresión de la corrección automática.
La base de datos de características 22 puede
estar:
- integrada en el aparato de captura de imagen
1.
- integrada en un PC u otro ordenador conectado
a otros elementos durante la captura de imagen.
- integrada en un PC u otro ordenador conectado
a otros elementos tras la captura de imagen.
- integrada en un PC u otro ordenador capaz de
leer un soporte de almacenamiento común con el aparato de captura de
imagen 1.
- integrada en un servidor a distancia conectado
a un PC u otro ordenador conectado este último a otros elementos de
captura de imagen.
El medio de cálculo 17 puede estar:
- integrado en un componente con el capturador
101.
- integrado en un componente con una parte de la
electrónica 102.
- integrado en el aparato de captura de imagen
1.
- integrado en un PC u otro ordenador conectado
a otros elementos durante la captura de imagen.
- integrado en un PC u otro ordenador conectado
a otros elementos tras la captura de imagen.
- integrado en un PC u otro ordenador capaz de
leer un soporte de almacenamiento común con el aparato de captura de
imagen 1.
- integrado en un servidor a distancia conectado
a un PC u otro ordenador conectado este último a otros elementos de
captura de imagen.
En los anteriores párrafos, se han precisado
principalmente los conceptos y la descripción del procedimiento y el
sistema según la invención para proporcionar a programas de
tratamiento de imágenes 4 informaciones formateadas 15 relacionadas
con las características de los aparatos de captura de imagen 1.
En los párrafos siguientes, se ampliará la
definición de conceptos y se completará la descripción del
procedimiento y del sistema según la invención para proporcionar a
los programas de tratamiento de imágenes 4 informaciones formateadas
15 relacionadas con las características de los medios de restitución
de imagen 19. Así, se habrá expuesto el tratamiento de una cadena
completa.
El tratamiento de la cadena completa
permite:
- mejorar la calidad de la imagen 103 de un
extremo al otro de la cadena, para obtener una imagen restituida
191, corrigiendo los defectos del aparato de captura de imagen 1 y
del medio de restitución de imagen 19, o
- utilizar ópticas de menor calidad y de menor
coste en un proyector de vídeo en combinación con un programa de
mejora de la calidad de las imágenes.
Apoyándose en las figuras 2 y 6, se describirá a
continuación la consideración de las informaciones formateadas 15 de
las características de un medio de restitución de imágenes 19, como
una impresora, una pantalla de visualización o un proyector.
Los complementos o modificaciones que haya que
aportar a las definiciones en el caso de un medio de restitución de
imagen 19 puede extrapolarlos mutatis mutandis un experto a
partir de las definiciones proporcionadas en el caso de un aparato
de captura de imagen 1. Sin embargo, con la finalidad de ilustrar
este método, se describirán a continuación haciendo referencia a la
figura 6 los principales complementos o modificaciones.
Se denomina características de restitución
utilizadas 95 a las características intrínsecas de medios de
restitución de imagen 19, las características del medio de
restitución de imagen 19 en el momento de la restitución de imagen y
las preferencias del usuario en el momento de la restitución de
imágenes. Especialmente en el caso de un proyector, las
características de restitución utilizas 95 incluyen la forma y la
posición de la pantalla utilizada. La noción de características
utilizadas de restitución 95 es una ampliación de la noción de
característica varia-
ble.
ble.
Se denomina modelo de transformación
configurable de restitución 97 (o de manera resumida, transformación
configurable de restitución 97) a una transformación matemática
semejante al modelo de transformación configurable 12.
Se denomina imagen corregida de restitución 94 a
la imagen obtenida por aplicación de la transformación configurable
de restitución 97 a la imagen 103.
Se denomina proyección matemática de restitución
96 a una proyección matemática que asocia a una imagen corregida de
restitución 94, una imagen matemática de restitución 92 en la
superficie matemática de restitución geométricamente asociada a la
superficie del soporte de restitución 190. Los puntos matemáticos de
restitución de la superficie tienen una forma, una posición, un
color y una intensidad calculados a partir de la imagen corregida de
restitución 94.
Se denomina proyección real de restitución 90 a
una proyección que asocia a una imagen 103 una imagen restituida
191. Los valores de los píxeles de la imagen 103 se convierten,
mediante la electrónica de los medios de restitución 19, en una
señal que pilota el modulador de medios de restitución 19. Se
obtienen puntos reales de restitución en el soporte de restitución
190. Dichos puntos reales de restitución están dotados de una forma,
un color, una intensidad y una posición. El fenómeno de agrupación
de píxeles 104 previamente descrito en el caso de un aparato de
captura de imagen 1 no se produce en el caso de un medio de
restitución de imagen. En cambio, se produce un fenómeno inverso
que hace que aparezcan especialmente derechos como peldaños de una
escalera.
Se denomina diferencia de restitución 93 a la
diferencia entre la imagen restituida 191 y la imagen matemática de
restitución 92. Esta diferencia de restitución 93 se obtiene
mutatis mutandis como la diferencia 73.
Se denomina referencia de restitución a una
imagen 103 de la que se conocen los valores de píxeles 104.
Se denomina mejor transformación de restitución
para una referencia de restitución y características utilizadas de
restitución 95 a la que permite transformar la imagen 103 en una
imagen corregida de restitución 94, como su proyección matemática de
restitución 92, y presenta la menor diferencia de restitución 93 con
la imagen restituida 191.
Los procedimientos de calibrado de restitución y
de diseño de óptica numérica de restitución son comparables a los
procedimientos de calibración y de diseño de óptica numérica en el
caso de un aparato de captura de imagen 1. No obstante, algunas
etapas incluyen diferencias, en concreto, las siguientes:
- la etapa de seleccionar una referencia de
restitución.
- la etapa de efectuar la restitución de dicha
referencia de restitución.
- la etapa de calcular la mejor transformación
de restitución.
Las informaciones formateadas 15 relacionadas
con un aparato de captura de imagen 1 y las relacionadas con un
medio de restitución de imagen 19 pueden empalmarse para una misma
imagen.
Anteriormente se ha descrito la noción de campo
en el caso de un aparato de captura de imagen 1. Esta noción se
aplica también mutatis mutandis en el caso de medios de
restitución de imagen 19. Sin embargo, los parámetros del método de
cuantificación se sustituyen por los parámetros del método de
reconstitución de la señal, a saber: la geometría del soporte de
restitución 190 y su posición, una función que representa la
distribución espacial y temporal del ruido del medio de restitución
de imágenes 19.
Los rasgos técnicos que componen la invención y
que figuran en las reivindicaciones se han descrito, definido,
ilustrado haciendo referencia fundamentalmente a aparatos de captura
de imagen de tipo numérico, es decir, que producen imágenes
numéricas. Es fácilmente entendible que los mismos rasgos técnicos
se aplican en el caso de los aparatos de captura de imagen que sean
la combinación de un aparato argéntico (un aparato fotográfico o
cinematográfico que utilice películas sensibles argénticas,
negativas o invertibles) y un escáner que produzca una imagen
numérica a partir de películas sensibles desarrolladas. Sin ninguna
duda, en este caso procede adaptar, al menos, algunas de las
definiciones utilizadas. Estas adaptaciones están al alcance del
experto. Con el fin de poner de manifiesto el carácter evidente de
tales adaptaciones, se señalará simplemente que las nociones de
píxel y de valor de píxel ilustradas haciendo referencia a la figura
3 deben aplicarse, en el caso de la combinación de un aparato
argéntico y de un escáner, a una zona elemental de la superficie de
la película una vez que ésta se haya enumerado por medio del
escáner. Tales transposiciones de las definiciones se caen por su
propio peso y pueden ampliarse en la noción de configuración
utilizada. A la lista de subconjuntos amovibles del aparato de
captura de imagen 1 que compone la configuración utilizada se puede
añadir, por ejemplo, el tipo de película fotográfica efectivamente
utilizada en el aparato argéntico.
La figura 25 representa un ejemplo de
realización del sistema que permite poner en práctica la invención
anteriormente descrita. Este sistema incluye los primeros medios de
cálculo MC1 relativos a una imagen I salida de un aparato APP1 o de
una cadena de aparatos P3 que poseen características variables.
Estos medios de cálculo tal y como se ha descrito anteriormente,
calcularán, a partir de las características de los aparatos,
características variables según la imagen y los valores asociados
(focal, puesta a punto, velocidad, apertura...) de las informaciones
formateadas medidas IFM. Los segundos medios de cálculos MC2
calcularán las informaciones formateadas extendidas a partir de las
informaciones formateadas medidas y características variables y sus
valores asociados, de manera que las informaciones formateadas
extendidas sean más compactas en memoria y permitan, llegado el
caso, estimar informaciones relativas en defecto de distorsión en
otros puntos distintos a los puntos relativos a las informaciones
formateadas medidas. Las informaciones formateadas medidas IFM y las
informaciones formateadas extendidas IFE están en proporción con los
medios de selección MS1 para producir informaciones formateadas
IF.
Se llama reducción de coste a un procedimiento y
sistema para disminuir el coste de un aparato o de una cadena de
aparatos P3, especialmente el coste de la óptica de un aparato o de
una cadena de aparatos; el procedimiento consiste en:
-disminuir el número de lentes, o
-simplificar la forma de las lentes, o
-crear o escoger en un catálogo una óptica que
tenga defectos P5 más importantes que los deseados para el aparato o
la cadena de aparatos, o
-utilizar materiales, componentes, tratamientos
o procedimientos de fabricación menos costosos para el aparato o la
cadena de aparatos añadiendo defectos P5.
El procedimiento y el sistema, según la
invención, pueden utilizarse para disminuir el coste de un aparato o
de una cadena de aparatos: se puede idear una óptica numérica,
producir informaciones formateadas IF relativas a los defectos del
aparato o a la cadena de aparatos, utilizar estas informaciones
formateadas para permitir a los medios de tratamiento de imagen,
integrados o no, que modifiquen la calidad de las imágenes
procedentes del aparato o de la cadena de aparatos o destinadas a
los mismos, de manera que la combinación del aparato o la cadena de
aparatos y los medios de tratamiento de imagen permitan capturar,
modificar o restituir imágenes de la calidad deseada a un coste
reducido.
Claims (20)
1. Procedimiento para producir informaciones
formateadas (IF) relacionadas con los aparatos (App1, App2, App3) de
una cadena de aparatos (APP1); dicha cadena de aparatos incluye, en
especial, como mínimo, un aparato de captura de imagen (App1) o, al
menos, un aparato de restitución de imagen (APP2); dicho aparato
permite capturar o restituir una imagen (I) en un soporte (SC);
dicho aparato incluye, al menos, una característica fija o una
característica variable según la imagen (I); dicha característica
fija o característica variable es susceptible de estar asociada a
uno o varios valores de características, especialmente la focal o la
puesta a punto y sus valores de características asociadas; dicho
procedimiento incluye la etapa de:
- producir informaciones formateadas (IF)
relacionadas con las distorsiones geométricas de, al menos, un
aparato de dicha cadena.
- producir informaciones formateadas medidas
(IFM1 a IFMm) relacionadas con las distorsiones geométricas de dicho
aparato a partir de un campo medido (D(H)); dichas
informaciones formateadas (IF) pueden incluir dichas informaciones
formateadas medidas.
- producir informaciones formateadas extendidas
(IFE1 a IFEm) relacionadas con las distorsiones geométricas de dicho
aparato a partir de dichas informaciones formateadas medidas (IFM1 a
IFMm); dichas informaciones formateadas pueden incluir dichas
informaciones formateadas extendidas; dichas informaciones
formateadas extendidas presentan una desviación (14) en relación con
dichas informaciones formateadas medidas, y dicho procedimiento
incluye un primer algoritmo de cálculo (AC1) que permite obtener
dicho campo medido D(H) a partir de un sistema de
referencia(M)que consta de puntos característicos
(PP1, PPi, PPj, PPm) y una referencia virtual (R) compuesta por
puntos de referencia (PR1, PRi, PRj, PRm) sobre una superficie de
referencia (SR); dicho primer algoritmo de cálculo (AC1) incluye la
etapa de capturar o restituir dicho sistema de referencia (M) por
medio de dicho aparato para producir una imagen (I) de dichos puntos
característicos en dicho soporte (SC); la imagen de un punto
característico (PP1, PPi, PPj, PPm) se denominará en adelante el
punto característico de imagen (PT1, PTi, PTj, PTm); dicho primer
algoritmo de cálculo (AC2) incluye además:
- la etapa de establecer una biyección entre
dichos puntos característicos de imágenes (PT1, Pti, PTj, PTm) y
dichos puntos de referencia.
- la etapa de seleccionar cero, una o varias
características variables entre el conjunto de dichas
características variables, en adelante llamadas las características
variables seleccionadas.
dicho campo medido (D(H)) está compuesto
por:
- el conjunto de pares constituidos por uno de
dichos puntos de referencia (PRm) y por un punto característico de
imagen (PTm) asociado por dicha biyección.
- el valor, para dicha imagen (I), de cada una
de dichas características variables seleccionadas.
2. Procedimiento según la reivindicación 1;
dicho procedimiento incluye además la etapa de elegir una proyección
matemática (H(PRj)), especialmente una homografía, entre
dicho soporte (SC) y dicha superficie de referencia (SR);
dicho campo medido (D(H)) está compuesto
por el valor, para dicha imagen (I), de cada una de dichas
características variables seleccionadas y para cada punto de
referencia (PRi, PRm):
- por el par constituido por el punto de
referencia (PRj) y dicha proyección matemática (H(PRj)), en
dicha superficie de referencia (SR), por el punto característico de
imagen (PTj) asociado por dicha biyección a dicho punto de
referencia (PRj).
- por el par constituido por el punto
característico de imagen (PTj) asociado por dicha biyección a dicho
punto de referencia (PRj) y dicha proyección matemática
(H(PRj)), en dicho soporte (SC), de dicho punto de referencia
(PRj).
3. Procedimiento según una reivindicación
cualquiera 1 ó 2; dicho procedimiento incluye además la etapa de
obtener dichas informaciones formateadas extendidas relativas a un
punto de referencia cualquiera (PQRi) en dicha superficie de
referencia (SR) o a un punto característico de imagen cualquiera
(PQTi) de dicho soporte (SC), deduciendo dichas informaciones
formateadas, relativas a dicho punto de referencia cualquiera o a
dicho punto característico de imagen cualquiera, a partir de dichas
informaciones formateadas medidas.
4. Procedimiento según la reivindicación 1, 2 ó
3; dicho procedimiento es tal que dichas informaciones formateadas,
producidas a partir de dichas informaciones formateadas medidas, se
representan mediante los parámetros de un modelo configurable
elegido entre un conjunto de modelos configurables (SP, 12, 97),
especialmente un conjunto de polinomios; dicho procedimiento incluye
además la etapa de seleccionar dicho modelo configurable en dicho
conjunto de modelos configurables:
- definiendo una desviación máxima.
- ordenando dichos modelos configurables de
dicho conjunto de modelos configurables según su grado de
complejidad de utilización.
- eligiendo el primero de los modelos
configurables de dicho conjunto de modelos configurables ordenado
para el que dicha desviación (14) sea inferior a dicha desviación
máxima.
5. Procedimiento según una reivindicación
cualesquiera 1 a 4; dichas informaciones formateadas extendidas son
dichas informaciones formateadas medidas.
6. Procedimiento según una de las
reivindicaciones cualesquiera 1 a 5; dicho procedimiento es tal que
dicho aparato de dicha cadena de aparatos presenta, al menos, una
característica variable según la imagen, especialmente la focal o
la puesta a punto; cada característica variable es susceptible de
estar asociada a un valor para formar una combinación constituida
por el conjunto de dichas características variables y dichos
valores;
dicho procedimiento incluye además las etapas
siguientes:
- la etapa de seleccionar combinaciones
predeterminadas.
- la etapa de calcular informaciones formateadas
medidas, especialmente utilizando dicho primer algoritmo de cálculo
(AC2) para cada una de dichas combinaciones predeterminadas así
seleccionadas.
7. Procedimiento según la reivindicación 6; se
llama argumento, según el caso a:
- un punto de referencia cualquiera (PQRi) en
dicha superficie de referencia (SR) y una combinación, o
- a un punto característico de imagen cualquiera
(PQTi) de dicho soporte (SC) y a una combinación;
dicho procedimiento incluye además la etapa de
deducir dichas informaciones formateadas extendidas relativas a un
argumento cualquiera a partir de dichas informaciones formateadas
medidas.
8. Procedimiento según una reivindicación
cualquiera de las anteriores; dicho procedimiento, que incluye
además la etapa de seleccionar en dicho soporte (SC) cuatro puntos
característicos de imágenes (PTm. 1 a 4) como el cuadrilátero
definido por dichos cuatro puntos característicos de imágenes, es el
que tiene una superficie máxima y un centro de gravedad situado
cerca del centro geométrico de la imagen (I); dicha proyección
matemática es la homografía que transforma dichos cuatro puntos
característicos de imágenes en los puntos de referencia (PRm. 1 a 4)
asociados por dicha biyección a los cuatro puntos característicos de
las imágenes.
9. Procedimiento según una reivindicación
cualquiera de las anteriores; dicha imagen es una imagen en color
compuesta por varios planos de color; dicho procedimiento incluye
además la etapa de producción de dichas informaciones formateadas
medidas utilizando dicho primer algoritmo de cálculo (AC2) para, al
menos, dos de dichos planos de color, empleando la misma proyección
matemática mencionada para cada uno de dichos planos de
color.
color.
10. Procedimiento según una reivindicación
cualquiera de las anteriores; dicha imagen es una imagen en color
compuesta por varios planos de color (PTR, PTV, PTB); dicho
procedimiento incluye además la etapa de producción de dichas
informaciones formateadas medidas utilizando dicho primer algoritmo
de cálculo (AC2) para, al menos, uno de dichos planos de color,
empleando la misma referencia virtual para cada uno de dichos planos
de color;
de manera que sea posible utilizar dichas
informaciones formateadas o informaciones formateadas medidas para
corregir las aberraciones cromáticas del aparato.
11. Sistema para producir informaciones
formateadas (IF) relacionadas con defectos de aparatos (App1, App2,
App3) de una cadena de aparatos (APP1); dicha cadena de aparatos
incluye especialmente, al menos, un aparato de captura de imagen
(App1) o, al menos, un aparato de restitución de imagen (APP2);
dicho aparato permite capturar o restituir una imagen (I) en un
soporte (SC); dicho aparato consta de, como mínimo, una
característica fija o una característica variable según la imagen
(I); dicha característica fija o característica variable es
susceptible de estar asociada a uno o varios valores de
características, especialmente la focal o la puesta a punto y sus
valores de características asociadas; dicho sistema incluye:
medios de cálculo para producir informaciones
formateadas relacionadas con las distorsiones geométricas de, al
menos, un aparato de dicha cadena, medios de cálculo (MC1) para
producir informaciones formateadas medidas relacionadas con las
distorsiones geométricas de dicho aparato a partir de un campo
medido (D(H)); dichas informaciones formateadas pueden
incluir dichas informaciones formateadas medidas, medios de cálculo
(MC2) para producir informaciones formateadas extendidas (IFE1 a
IFEm) relacionadas con las distorsiones geométricas de dicho aparato
a partir de dichas informaciones formateadas extendidas (IFM1 a
IFMm); dichas informaciones formateadas pueden incluir informaciones
extendidas; dichas informaciones formateadas extendidas presentan
una desviación en relación con dichas informaciones formateadas
medidas y medios de cálculo que emplean un primer algoritmo de
cálculo (AC1) que permite obtener dicho campo medido (D(H) a
partir de un sistema de referencia (M) que consta de puntos
característicos (PP1, PPi, PPj, PPm) y de una referencia virtual (R)
compuesta por puntos de referencia (PR1, PRi, PRj, PRm) en una
superficie de referencia (SR);
dicho aparato de captura de imagen o dicho
aparato de restitución de imagen incluye medios de captura o medios
de restitución de dicho sistema de referencia (M) que permiten
producir una imagen (I) de dichos puntos característicos (PP) en
dicho soporte (SC); la imagen de un punto característico (PP) se
denomina en adelante el punto característico de imagen (PT);
dichos medios de cálculo de dicho primer
algoritmo de cálculo (AC1) incluyen además medios de tratamiento
informático para:
- establecer una biyección entre dichos puntos
característicos de imágenes (PT1, PTi, PTj, PTm) y dichos puntos de
referencia (PR1, PRi, PRj, PRm).
- seleccionar cero, una o varias características
variables entre el conjunto de dichas características variables, en
adelante llamadas las características variables seleccionadas.
dicho campo medido (D(H) está compuesto
por:
- el conjunto de pares constituidos por uno de
dichos puntos de referencia (PRm) y un punto característico de
imagen (PTm) asociado por dicha biyección, y
- el valor, para dicha imagen (I), de cada una
de dichas características variables seleccionadas.
12. Sistema según la reivindicación 11; dicho
sistema incluye además medios de análisis para elegir una proyección
matemática (H(PRj)), especialmente una homografía, entre
dicho soporte (SC) y dicha superficie de referencia
(SR);
(SR);
dicho campo medido (D(H)) está compuesto
por el valor, para dicha imagen (I), de cada una de dichas
características variables seleccionadas y para cada punto de
referencia (PR):
- por el par constituido por el punto de
referencia (PRm) y dicha proyección matemática (H(PRj)), en
dicha superficie de referencia (SR), por el punto característico de
imagen (PTj) asociado por dicha biyección a dicho punto de
referencia (PRj), o
- por el par constituido por el punto
característico de imagen (PTj) asociado por dicha biyección a dicho
punto de referencia (PRj) y dicha proyección matemática, en dicho
soporte (SC), de dicho punto de referencia.
13. Sistema según la reivindicación 11 ó 12;
dicho sistema incluye además medios de tratamiento informático para
obtener dichas informaciones formateadas extendidas relativas a un
punto de referencia cualquiera (PQRi) sobre dicha superficie de
referencia (SR) o a un punto característico de imagen cualquiera
(PQTi) de dicho soporte (SC), deduciendo dichas informaciones
formateadas, relativas a dicho punto de referencia cualquiera o a
dicho punto característico de imagen cualquiera, a partir de dichas
informaciones formateadas medidas.
14. Sistema según la reivindicación 11, 12 ó 13;
dicho sistema es tal que dichas informaciones formateadas,
producidas a partir de dichas informaciones formateadas medidas, se
representan mediante los parámetros de un modelo configurable (SP)
elegido entre un conjunto de polinomios; dicho sistema incluye
además medios de selección para seleccionar dicho modelo
configurable en dicho conjunto de modelos configurables; dichos
medios de selección incluyen medios de tratamiento informático
para:
- definir una desviación máxima.
- ordenar dichos modelos configurables de dicho
conjunto de modelos configurables según su grado de complejidad de
utilización.
- elegir el primero de los modelos configurables
de dicho conjunto de modelos configurables ordenado para el que
dicha desviación sea inferior a la desviación máxima.
15. Sistema según una de las reivindicaciones 11
a 14; dichas informaciones formateadas extendidas son dichas
informaciones formateadas medidas.
16. Sistema según una de las reivindicaciones 11
a 15; dicho sistema es tal que dicho aparato de dicha cadena de
aparato presenta, como mínimo, una característica variable según la
imagen, especialmente la focal o la puesta a punto; cada
característica variables es susceptible de estar asociada a una
variable para formar una combinación constituida por el conjunto de
dichas características variables y dichos valores;
dicho sistema incluye además:
- medios de selección para seleccionar
combinaciones predeterminadas.
- medios de cálculo para calcular informaciones
formateadas medidas, especialmente utilizando dicho primer algoritmo
de cálculo (AC1) para cada una de dichas combinaciones
predeterminadas así seleccionadas.
17. Sistema según la reivindicación 16; un
argumento designa, según el caso:
- un punto de referencia cualquiera (PQRj) en
dicha superficie de referencia (SR) y una combinación, o
- un punto característico de imagen cualquiera
(PQTj) de dicho soporte (SC) y una combinación;
dicho sistema incluye además medios de
tratamiento informático (MC2) para deducir dichas informaciones
formateadas extendidas relativas a un argumento cualquiera a partir
de dichas informaciones formateadas medidas.
18. Sistema según una de las reivindicaciones 11
a 17; dicho sistema, que incluye además medios de selección para
seleccionar en dicho soporte (SC) cuatro puntos característicos de
imágenes (PTm. 1 a 4), tales como el cuadrilátero definido por
dichos cuatros puntos característicos de imágenes, que es el que
tiene una superficie máxima y un centro de gravedad situado cerca
del centro geométrico de la imagen (I); dicha proyección matemática
es la homografía que transforma dichos cuatro puntos característicos
de imágenes en los puntos de referencia asociados por dicha
biyección a los mencionados cuatro puntos característicos de las
imágenes.
19. Sistema según una de las reivindicaciones 11
a 18; dicha imagen es una imagen en color compuesta por varios
planos de color; dicho sistema incluye además medios de tratamiento
informático para producir dichas informaciones formateadas medidas
empleando dicho primer algoritmo de cálculo (AC1) para, al menos,
dos de los mencionados planos de color, utilizando la misma
proyección matemática mencionada para cada uno de dichos planos de
color, de manera que sea posible utilizar dichas informaciones
formateadas o informaciones formateadas medidas para corregir las
distorsiones o las aberraciones cromáticas de dicho aparato.
20. Sistema según una de las reivindicaciones 11
a 19; dicha imagen es una imagen en color compuesta por varios
planos de color; dicho sistema incluye además medios de tratamiento
informático para producir dichas informaciones formateadas medidas
empleando el mencionado primer algoritmo de cálculo (AC1) para, como
mínimo, uno de los planos de color, utilizando la misma referencia
mencionada virtual para cada uno de los mencionados planos de color,
de manera que sea posible utilizar dichas informaciones formateadas
o informaciones formateadas medidas para corregir las aberraciones
cromáticas de dicho aparato.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0109292 | 2001-07-12 | ||
FR0109291 | 2001-07-12 | ||
FR0109292A FR2827460B1 (fr) | 2001-07-12 | 2001-07-12 | Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti |
FR0109291A FR2827459B1 (fr) | 2001-07-12 | 2001-07-12 | Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image |
FR0112664 | 2001-10-02 | ||
FR0112664A FR2830401B1 (fr) | 2001-10-02 | 2001-10-02 | Procede et systeme pour corriger les aberrations chromatiques d'une image couleur realisee au moyen d'un systeme optique |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2282429T3 true ES2282429T3 (es) | 2007-10-16 |
Family
ID=27248787
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02743348T Expired - Lifetime ES2282429T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. |
ES02747503T Expired - Lifetime ES2324817T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital. |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02747503T Expired - Lifetime ES2324817T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital. |
Country Status (9)
Country | Link |
---|---|
US (2) | US7356198B2 (es) |
EP (3) | EP1523730B1 (es) |
JP (3) | JP4378168B2 (es) |
KR (1) | KR100940149B1 (es) |
CN (3) | CN100346633C (es) |
AT (2) | ATE426868T1 (es) |
DE (2) | DE60218317T2 (es) |
ES (2) | ES2282429T3 (es) |
WO (3) | WO2003007592A1 (es) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2282429T3 (es) | 2001-07-12 | 2007-10-16 | Do Labs | Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. |
DE60239061D1 (de) * | 2001-07-12 | 2011-03-10 | Dxo Labs | Verfahren und system zur qualitätsverbesserung von bildern |
NZ539632A (en) * | 2002-10-22 | 2008-01-31 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
US8294999B2 (en) | 2003-01-16 | 2012-10-23 | DigitalOptics Corporation International | Optics for an extended depth of field |
CN101819325B (zh) * | 2003-01-16 | 2015-11-25 | 帝欧希数字光学科技国际有限公司 | 光学系统和产生所述光学系统的方法 |
US7773316B2 (en) * | 2003-01-16 | 2010-08-10 | Tessera International, Inc. | Optics for an extended depth of field |
JP2004234379A (ja) | 2003-01-30 | 2004-08-19 | Sony Corp | 画像処理方法、画像処理装置及び画像処理方法を適用した撮像装置、表示装置 |
JP4010254B2 (ja) * | 2003-02-06 | 2007-11-21 | ソニー株式会社 | 画像記録再生装置、画像撮影装置及び色収差補正方法 |
US7596286B2 (en) * | 2003-08-06 | 2009-09-29 | Sony Corporation | Image processing apparatus, image processing system, imaging apparatus and image processing method |
US7505946B2 (en) * | 2004-03-31 | 2009-03-17 | Microsoft Corporation | High performance content alteration architecture and techniques |
US7583858B2 (en) * | 2004-10-12 | 2009-09-01 | Eastman Kodak Company | Image processing based on direction of gravity |
EP1811890A4 (en) * | 2004-11-01 | 2009-09-09 | Eye Diagnostics Pty Ltd | DEVICE AND METHOD FOR SEARCHING FOR CHANGES IN THE EYE |
FR2881011B1 (fr) | 2005-01-19 | 2007-06-29 | Dxo Labs Sa | Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede |
US7683950B2 (en) * | 2005-04-26 | 2010-03-23 | Eastman Kodak Company | Method and apparatus for correcting a channel dependent color aberration in a digital image |
FR2889321B1 (fr) * | 2005-07-26 | 2008-02-01 | Sagem Comm | Procede de correction automatique de photographies numeriques |
US20070058881A1 (en) * | 2005-09-12 | 2007-03-15 | Nishimura Ken A | Image capture using a fiducial reference pattern |
US8311311B2 (en) * | 2005-10-31 | 2012-11-13 | Mitutoyo Corporation | Optical aberration correction for machine vision inspection systems |
US7724942B2 (en) * | 2005-10-31 | 2010-05-25 | Mitutoyo Corporation | Optical aberration correction for machine vision inspection systems |
FR2895103B1 (fr) * | 2005-12-19 | 2008-02-22 | Dxo Labs Sa | Procede et systeme de traitement de donnees numeriques |
FR2895102B1 (fr) * | 2005-12-19 | 2012-12-07 | Dxo Labs | Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede |
JP2007172059A (ja) * | 2005-12-19 | 2007-07-05 | Toshiba Corp | 紙葉類判別装置、および紙葉類処理装置 |
FR2895104A1 (fr) * | 2005-12-19 | 2007-06-22 | Dxo Labs Sa | Procede pour fournir des donnees a un moyen de traitement numerique |
US7881563B2 (en) * | 2006-02-15 | 2011-02-01 | Nokia Corporation | Distortion correction of images using hybrid interpolation technique |
US20070239417A1 (en) * | 2006-03-31 | 2007-10-11 | D-Blur Technologies Ltd. | Camera performance simulation |
US7847831B2 (en) * | 2006-08-30 | 2010-12-07 | Panasonic Corporation | Image signal processing apparatus, image coding apparatus and image decoding apparatus, methods thereof, processors thereof, and, imaging processor for TV conference system |
US7792357B2 (en) * | 2007-05-30 | 2010-09-07 | Microsoft Corporation | Chromatic aberration correction |
US7809208B2 (en) * | 2007-05-30 | 2010-10-05 | Microsoft Corporation | Image sharpening with halo suppression |
US9177368B2 (en) | 2007-12-17 | 2015-11-03 | Nvidia Corporation | Image distortion correction |
US9379156B2 (en) | 2008-04-10 | 2016-06-28 | Nvidia Corporation | Per-channel image intensity correction |
JP4816704B2 (ja) * | 2008-09-25 | 2011-11-16 | 富士ゼロックス株式会社 | 指示システム、指示プログラム |
JP5153593B2 (ja) * | 2008-12-02 | 2013-02-27 | 株式会社Pfu | 画像処理装置および画像処理方法 |
US8749662B2 (en) * | 2009-04-16 | 2014-06-10 | Nvidia Corporation | System and method for lens shading image correction |
FR2948521B1 (fr) | 2009-07-21 | 2012-01-27 | Dxo Labs | Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes |
US8248511B2 (en) * | 2009-09-30 | 2012-08-21 | Ricoh Co., Ltd. | Dual-mode extended depth-of-field imaging systems |
JP5479225B2 (ja) * | 2010-05-27 | 2014-04-23 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
DE112010005743B4 (de) | 2010-07-16 | 2021-09-02 | Robert Bosch Gmbh | Verfahren für die Detektion und Korrektur von lateraler chromatischer Aberration |
DE112010005744B4 (de) | 2010-07-16 | 2021-09-09 | Robert Bosch Gmbh | Verfahren für die Detektion und Korrektur einer lateralen chromatischen Aberration |
JP5582935B2 (ja) | 2010-09-22 | 2014-09-03 | 富士フイルム株式会社 | 撮像モジュール |
CN103377467B (zh) * | 2012-04-25 | 2017-03-29 | 华晶科技股份有限公司 | 图像补偿的方法 |
AU2013295553B2 (en) | 2012-07-26 | 2017-10-19 | DePuy Synthes Products, Inc. | Continuous video in a light deficient environment |
KR102127100B1 (ko) | 2012-07-26 | 2020-06-29 | 디퍼이 신테스 프로덕츠, 인코포레이티드 | 광 부족 환경에서 ycbcr 펄싱된 조명 수법 |
EP2878123B1 (en) | 2012-07-26 | 2017-12-20 | DePuy Synthes Products, Inc. | Wide dynamic range using monochromatic sensor |
US9798698B2 (en) | 2012-08-13 | 2017-10-24 | Nvidia Corporation | System and method for multi-color dilu preconditioner |
JP6002773B2 (ja) | 2012-09-11 | 2016-10-05 | 株式会社日本触媒 | ポリアクリル酸(塩)系吸水剤の製造方法及びその吸水剤 |
KR102124670B1 (ko) | 2012-09-11 | 2020-06-18 | 가부시키가이샤 닛폰 쇼쿠바이 | 폴리아크릴산(염)계 흡수제의 제조 방법 및 그 흡수제 |
US9508318B2 (en) | 2012-09-13 | 2016-11-29 | Nvidia Corporation | Dynamic color profile management for electronic devices |
US9307213B2 (en) | 2012-11-05 | 2016-04-05 | Nvidia Corporation | Robust selection and weighting for gray patch automatic white balancing |
AU2014233193B2 (en) | 2013-03-15 | 2018-11-01 | DePuy Synthes Products, Inc. | Controlling the integral light energy of a laser pulse |
JP6422937B2 (ja) | 2013-03-15 | 2018-11-14 | デピュイ・シンセス・プロダクツ・インコーポレイテッド | 光制御された環境において感知する内視鏡 |
AU2014233188A1 (en) | 2013-03-15 | 2015-11-05 | DePuy Synthes Products, Inc. | Comprehensive fixed pattern noise cancellation |
WO2014144950A1 (en) | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Noise aware edge enhancement |
WO2014144947A1 (en) | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Super resolution and color motion artifact correction in a pulsed color imaging system |
US9418400B2 (en) | 2013-06-18 | 2016-08-16 | Nvidia Corporation | Method and system for rendering simulated depth-of-field visual effect |
US9826208B2 (en) | 2013-06-26 | 2017-11-21 | Nvidia Corporation | Method and system for generating weights for use in white balancing an image |
US9756222B2 (en) | 2013-06-26 | 2017-09-05 | Nvidia Corporation | Method and system for performing white balancing operations on captured images |
DE102013012988A1 (de) * | 2013-08-03 | 2015-02-05 | Carl Zeiss Microscopy Gmbh | Verfahren zur Kalibrierung eines digitalen optischen Abbildungssystems, Verfahren zur Korrektur von Abbildungsfehlern in einem digitalen optischen Abbildungssystem, sowie digitales optisches Abblildungssystem |
EP4252728A3 (en) | 2013-12-20 | 2024-01-10 | Nippon Shokubai Co., Ltd. | Water absorbing agent based on polyacrylic acid and/or a salt thereof |
EP3119265B1 (en) | 2014-03-21 | 2019-09-11 | DePuy Synthes Products, Inc. | Card edge connector for an imaging sensor |
CN104363986B (zh) * | 2014-10-31 | 2017-06-13 | 华为技术有限公司 | 一种图像处理方法和设备 |
KR102328020B1 (ko) * | 2015-04-03 | 2021-11-17 | 한국전자통신연구원 | 하나의 룩업 테이블을 이용한 파노라마 영상 출력 시스템 및 방법 |
JP6774946B2 (ja) | 2015-07-01 | 2020-10-28 | 株式会社日本触媒 | 粒子状吸水剤 |
WO2018002910A1 (en) * | 2016-06-28 | 2018-01-04 | Cognata Ltd. | Realistic 3d virtual world creation and simulation for training automated driving systems |
US11025845B2 (en) * | 2016-10-12 | 2021-06-01 | Samsung Electronics Co., Ltd. | Method, apparatus, and recording medium for processing image |
JP7621739B2 (ja) * | 2020-03-04 | 2025-01-27 | 日本発條株式会社 | 検査システムの点検方法、検査システム、およびコンピュータプログラム。 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60120473A (ja) * | 1983-12-02 | 1985-06-27 | Hitachi Ltd | 衛星画像補正処理方法 |
US5144687A (en) * | 1985-03-02 | 1992-09-01 | Kabushika Kaisha Toshiba | Image processing apparatus including spatial shift variant filter |
FR2661061B1 (fr) | 1990-04-11 | 1992-08-07 | Multi Media Tech | Procede et dispositif de modification de zone d'images. |
GB2256989B (en) * | 1991-06-21 | 1995-02-08 | Sony Broadcast & Communication | Video image capture apparatus |
JP3035416B2 (ja) | 1992-11-18 | 2000-04-24 | キヤノン株式会社 | 撮像装置及び画像再生装置及び映像システム |
US5905530A (en) | 1992-08-24 | 1999-05-18 | Canon Kabushiki Kaisha | Image pickup apparatus |
US5353056A (en) * | 1992-10-27 | 1994-10-04 | Panasonic Technologies, Inc. | System and method for modifying aberration and registration of images |
JPH06205273A (ja) | 1993-01-04 | 1994-07-22 | Sony Corp | 幾何補正内蔵ビデオカメラ |
DE69526635T2 (de) * | 1994-12-29 | 2002-12-05 | Koninklijke Philips Electronics N.V., Eindhoven | Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen |
JP3950188B2 (ja) * | 1996-02-27 | 2007-07-25 | 株式会社リコー | 画像歪み補正用パラメータ決定方法及び撮像装置 |
US6173087B1 (en) * | 1996-11-13 | 2001-01-09 | Sarnoff Corporation | Multi-view image registration with application to mosaicing and lens distortion correction |
US6222583B1 (en) * | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
EP0878970A3 (en) * | 1997-05-16 | 1999-08-18 | Matsushita Electric Industrial Co., Ltd. | Imager registration error and chromatic aberration measurement system for a video camera |
JPH10319517A (ja) * | 1997-05-21 | 1998-12-04 | Konica Corp | 画像形成装置、及びレンズ付きフィルムユニットの製造方法 |
KR19990027149A (ko) * | 1997-09-29 | 1999-04-15 | 윤종용 | 스캐너의 블록간 화질현차 보상방법 |
US6493028B1 (en) * | 1997-11-26 | 2002-12-10 | Flashpoint Technology, Inc. | Method and system for extending the available image file formats in an image capture device |
DE19812028A1 (de) * | 1998-03-19 | 1999-09-23 | Heidelberger Druckmasch Ag | Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte |
US6173067B1 (en) * | 1998-04-07 | 2001-01-09 | Hughes Electronics Corporation | System and method for rapid determination of visibility-based terrain properties over broad regions |
US6603885B1 (en) * | 1998-04-30 | 2003-08-05 | Fuji Photo Film Co., Ltd. | Image processing method and apparatus |
JP4338155B2 (ja) * | 1998-06-12 | 2009-10-07 | キヤノン株式会社 | 画像処理装置及びその方法、コンピュータ可読メモリ |
US6456339B1 (en) * | 1998-07-31 | 2002-09-24 | Massachusetts Institute Of Technology | Super-resolution display |
JP2000125174A (ja) * | 1998-10-12 | 2000-04-28 | Fuji Photo Film Co Ltd | 画像情報における歪曲収差補正方法および装置 |
JP2000125175A (ja) | 1998-10-16 | 2000-04-28 | Olympus Optical Co Ltd | カメラ、画像処理システム、及び記録媒体 |
JP4095184B2 (ja) | 1998-10-29 | 2008-06-04 | キヤノン株式会社 | 画像処理装置及びその方法 |
US6538691B1 (en) * | 1999-01-21 | 2003-03-25 | Intel Corporation | Software correction of image distortion in digital cameras |
AU1599801A (en) | 1999-11-12 | 2001-06-06 | Brian S. Armstrong | Robust landmarks for machine vision and methods for detecting same |
US6809837B1 (en) * | 1999-11-29 | 2004-10-26 | Xerox Corporation | On-line model prediction and calibration system for a dynamically varying color reproduction device |
US6819333B1 (en) * | 2000-05-12 | 2004-11-16 | Silicon Graphics, Inc. | System and method for displaying an image using display distortion correction |
US6816625B2 (en) * | 2000-08-16 | 2004-11-09 | Lewis Jr Clarence A | Distortion free image capture system and method |
JP3429280B2 (ja) * | 2000-09-05 | 2003-07-22 | 理化学研究所 | 画像のレンズ歪みの補正方法 |
TW508538B (en) * | 2001-06-14 | 2002-11-01 | Ulead Systems Inc | Special effect method of lens using converting mask |
ES2282429T3 (es) | 2001-07-12 | 2007-10-16 | Do Labs | Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. |
CA2412711C (en) * | 2001-11-23 | 2008-09-02 | Imaging Dynamics Company Ltd. | Self diagnostic system for optically coupled digital radiography |
-
2002
- 2002-06-05 ES ES02743348T patent/ES2282429T3/es not_active Expired - Lifetime
- 2002-06-05 EP EP02747503A patent/EP1523730B1/fr not_active Expired - Lifetime
- 2002-06-05 EP EP02743348A patent/EP1412918B1/fr not_active Expired - Lifetime
- 2002-06-05 US US10/483,252 patent/US7356198B2/en not_active Expired - Lifetime
- 2002-06-05 EP EP02748934.3A patent/EP1421777B1/fr not_active Expired - Lifetime
- 2002-06-05 CN CNB028139585A patent/CN100346633C/zh not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001913 patent/WO2003007592A1/fr active Application Filing
- 2002-06-05 ES ES02747503T patent/ES2324817T3/es not_active Expired - Lifetime
- 2002-06-05 WO PCT/FR2002/001907 patent/WO2003007238A1/fr active Application Filing
- 2002-06-05 JP JP2003513230A patent/JP4378168B2/ja not_active Expired - Fee Related
- 2002-06-05 AT AT02747503T patent/ATE426868T1/de not_active IP Right Cessation
- 2002-06-05 AT AT02743348T patent/ATE354837T1/de not_active IP Right Cessation
- 2002-06-05 DE DE60218317T patent/DE60218317T2/de not_active Expired - Lifetime
- 2002-06-05 CN CNB028139550A patent/CN100371950C/zh not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001906 patent/WO2003007237A1/fr active IP Right Grant
- 2002-06-05 JP JP2003512925A patent/JP4630547B2/ja not_active Expired - Fee Related
- 2002-06-05 US US10/482,419 patent/US7532766B2/en not_active Expired - Lifetime
- 2002-06-05 KR KR1020047000416A patent/KR100940149B1/ko not_active IP Right Cessation
- 2002-06-05 CN CNB028139593A patent/CN100345158C/zh not_active Expired - Fee Related
- 2002-06-05 DE DE60231752T patent/DE60231752D1/de not_active Expired - Lifetime
- 2002-06-05 JP JP2003512926A patent/JP4159986B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004534489A (ja) | 2004-11-11 |
CN100345158C (zh) | 2007-10-24 |
EP1523730A1 (fr) | 2005-04-20 |
WO2003007592A1 (fr) | 2003-01-23 |
JP4378168B2 (ja) | 2009-12-02 |
CN100346633C (zh) | 2007-10-31 |
EP1421777B1 (fr) | 2017-04-19 |
EP1421777A1 (fr) | 2004-05-26 |
CN1531711A (zh) | 2004-09-22 |
DE60218317D1 (de) | 2007-04-05 |
WO2003007238A1 (fr) | 2003-01-23 |
KR20040043156A (ko) | 2004-05-22 |
US7532766B2 (en) | 2009-05-12 |
CN1526231A (zh) | 2004-09-01 |
EP1412918B1 (fr) | 2007-02-21 |
US20040247195A1 (en) | 2004-12-09 |
JP2004535033A (ja) | 2004-11-18 |
DE60218317T2 (de) | 2008-01-03 |
JP2004534490A (ja) | 2004-11-11 |
US20040240750A1 (en) | 2004-12-02 |
KR100940149B1 (ko) | 2010-02-03 |
US7356198B2 (en) | 2008-04-08 |
WO2003007237A1 (fr) | 2003-01-23 |
ES2324817T3 (es) | 2009-08-17 |
CN100371950C (zh) | 2008-02-27 |
ATE426868T1 (de) | 2009-04-15 |
EP1523730B1 (fr) | 2009-03-25 |
ATE354837T1 (de) | 2007-03-15 |
CN1526118A (zh) | 2004-09-01 |
JP4630547B2 (ja) | 2011-02-09 |
EP1412918A1 (fr) | 2004-04-28 |
JP4159986B2 (ja) | 2008-10-01 |
DE60231752D1 (de) | 2009-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2282429T3 (es) | Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. | |
ES2311061T3 (es) | Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. | |
CN110336987B (zh) | 一种投影仪畸变校正方法、装置和投影仪 | |
EP3356887B1 (en) | Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama | |
CN110191326B (zh) | 一种投影系统分辨率扩展方法、装置和投影系统 | |
US6983082B2 (en) | Reality-based light environment for digital imaging in motion pictures | |
CN110111262A (zh) | 一种投影仪畸变校正方法、装置和投影仪 | |
JP4495041B2 (ja) | ピンホール投影により表示面上のレーザポイントと関連付けられるプロジェクタ画素を求める方法 | |
CN104956664B (zh) | 校准装置、投影仪以及校准方法 | |
KR20160034847A (ko) | 단초점 카메라를 이용하여 디스플레이 시스템을 캘리브레이팅하기 위한 시스템 및 방법 | |
TW202424629A (zh) | 紅外光引導人像重新打光 | |
Ma et al. | Image formation | |
JP6367803B2 (ja) | オブジェクト空間のオブジェクト点の記述のための方法およびその実施のための結合体 | |
JP6684454B2 (ja) | 画像処理装置及び画像処理方法 | |
CN107370963B (zh) | 图像处理方法、图像处理装置和电子设备 | |
JP7364726B2 (ja) | 物体の画像を形成する方法、コンピュータプログラム製品、及びその方法を実行するための画像形成システム | |
RU2806729C1 (ru) | Система и способ реконструкции свойств поверхности и определения положения оцифрованных 3d объектов | |
FR2827460A1 (fr) | Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti |