[go: up one dir, main page]

ES2276696T3 - Metodo de estimacion de movimiento global. - Google Patents

Metodo de estimacion de movimiento global. Download PDF

Info

Publication number
ES2276696T3
ES2276696T3 ES00965961T ES00965961T ES2276696T3 ES 2276696 T3 ES2276696 T3 ES 2276696T3 ES 00965961 T ES00965961 T ES 00965961T ES 00965961 T ES00965961 T ES 00965961T ES 2276696 T3 ES2276696 T3 ES 2276696T3
Authority
ES
Spain
Prior art keywords
movement
estimation method
cost function
parameters
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00965961T
Other languages
English (en)
Inventor
Michel Bonnet
Cecile Dufour
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=8242119&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2276696(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of ES2276696T3 publication Critical patent/ES2276696T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

Método para estimar movimiento entre un fotograma F(n) entrante de una secuencia de fotogramas y una gran imagen M(n-1) estática, siendo dicha gran imagen estática un sprite o mosaico construido de fotogramas F(1)... F(n-1) anteriores de dicha secuencia, usando dicho método de estimación de movimiento un modelo de movimiento basado en una transformación de perspectiva en dos dimensiones que contiene ocho parámetros de movimiento y que comprende una etapa de optimización de una función coste, caracterizado porque dichos ocho parámetros de movimiento son las coordenadas de los cuatro vértices del fotograma entrante, moviéndose cada uno de dichos vértices sucesivamente e iterativamente en dos direcciones para encontrar una estimación de los parámetros de movimiento correspondientes a un máximo de la función coste.

Description

Método de estimación de movimiento global.
Campo de la invención
La presente invención se refiere a un método y a su correspondiente dispositivo para estimar movimiento entre un fotograma F(n) entrante de una secuencia de fotogramas y una gran imagen M(n-1) estática, construyéndose dicha gran imagen estática de fotogramas F(1)...F(n-1) anteriores de dicha secuencia, usando dicho método de estimación de movimiento un modelo de movimiento basado en una transformación de perspectiva en dos dimensiones que contiene ocho parámetros de movimiento y que comprende una etapa de optimización de una función coste.
Tal invención puede ser útil para aplicaciones que se refieren a MPEG-4 y, más especialmente, al estándar MPEG-7, tal como una generación de sprites o formación de mosaicos.
Antecedentes de la invención
Se conoce un método del tipo mencionado anteriormente por la solicitud de patente WO 98/59497. Esta solicitud de patente describe un método usado en codificación de vídeo para generar un sprite de los objetos de vídeo en el fotograma de una secuencia de vídeo. El método estima el movimiento global entre un objeto de vídeo en un fotograma actual y un sprite construido de objetos de vídeo de fotogramas anteriores. En concreto, el método de estimación de movimiento global calcula coeficientes de movimiento de una transformación en dos dimensiones que minimiza los errores de intensidad entre píxeles en el objeto de vídeo y los píxeles correspondientes en el sprite. El método de Levenberg-Marquardt se emplea para la etapa de minimización, que consiste en la minimización de una función analítica que se refiere a los errores de intensidad, y permite seleccionar los puntos más representativos y rechazar los otros como valores atípicos.
Sin embargo, el método de estimación de movimiento global descrito anteriormente tiene varios inconvenientes. El principal es que es muy sensible a los valores atípicos, que son píxeles que no siguen el movimiento global y que corresponden a objetos que tienen su propio movimiento. Esto significa que el método de estimación de movimiento global puede a veces fallar con algunas secuencias de vídeo particulares. Otra desventaja es también su incapacidad para converger de manera eficiente y rápida para cierto tipo de secuencias de vídeo.
Sumario de la invención
Es por lo tanto un objetivo de la presente invención proponer otro método de estimación de movimiento global que sea muy robusto frente a los valores atípicos pero que también pueda permitir una eficiente y rápida convergencia.
Para este fin, el método según la invención se caracteriza porque los ocho parámetros de movimiento son las coordenadas de los cuatro vértices del fotograma entrante, moviéndose dichos vértices sucesivamente en dos direcciones para encontrar una estimación de los parámetros de movimiento correspondientes a un máximo de la función coste.
El método de estimación de movimiento se basa en un planteamiento geométrico que trata sucesivamente e iterativamente los ocho parámetros de movimiento mediante la optimización de una función numérica mientras que el planteamiento de la técnica anterior, basada en el algoritmo de Levenberg-Marquardt, trata los ocho parámetros simultáneamente mediante la minimización de una función analítica. Como consecuencia, el método de estimación de movimiento basado en el desplazamiento de los cuatro vértices ha resultado ser más robusto frente a valores atípicos que el utilizado en la técnica anterior.
El método según la invención también se caracteriza porque el método de estimación de movimiento incluye un primer método iterativo que comprende, en cada iteración, la etapa de optimización para determinar una estimación de los ocho parámetros de movimiento, seguida de una etapa de cálculo de las dos direcciones de movimiento de cada uno de los cuatro vértices teniendo en cuenta la última alteración, realizándose dicho método iterativo hasta que se alcanza un criterio definido.
El método iterativo se basa en el algoritmo de Powell que mejora la convergencia de dicho método.
El método según la invención se caracteriza finalmente porque la etapa de optimización comprende un segundo método iterativo que realiza, en cada iteración, una operación de interpolación parabólica de valores de la función coste para estimar sucesivamente los parámetros de movimiento.
El uso de una operación de interpolación parabólica hace la convergencia del método de estimación de movimiento más rápida, especialmente en el caso de un movimiento grande.
Como consecuencia, el presente método de estimación de movimiento podría incluirse ventajosamente en un método para generar una gran imagen estática, tal como un sprite o un mosaico, e implementarse en un dispositivo para generar una gran imagen estática de este tipo.
Estos y otros aspectos de la invención serán aparentes a partir de, y se aclararán con referencia a, las realizaciones descritas a continuación
Breve descripción de los dibujos
La presente invención se describirá ahora, a modo de ejemplo, con referencia a los dibujos que acompañan, en los que:
la figura 1 muestra una representación geométrica de la etapa de optimización para la primera iteración,
la figura 2 es un diagrama de flujo para el proceso usado para realizar la inicialización automática de los parámetros de movimiento para las dos imágenes,
la figura 3 es un diagrama de flujo para el proceso iterativo usado para optimizar los parámetros de movimiento,
la figura 4 muestra una representación geométrica de la etapa de optimización para la iteración (I+1),
la figura 5 muestra un esquema de un dispositivo de generación de grandes imágenes estáticas.
Descripción de la invención
La presente invención propone un nuevo método de estimación de movimiento global entre un fotograma F(n) entrante de una secuencia de fotogramas y una gran imagen M(n-1) estática, que se construye de fotogramas F(1), F(2)..., F(n-1) anteriores de la secuencia de vídeo.
El principio del método de estimación de movimiento se representa en la figura 1. Dicho método de estimación de movimiento usa un modelo de movimiento basado en una transformación de perspectiva en dos dimensiones, que se llama también el modelo de perspectiva, con el fin de caracterizar el movimiento entre dos fotogramas. Este modelo contiene ocho parámetros de movimiento y se elige preferiblemente porque permite más posibilidades de movimiento de cámara que los otros, tales como, por ejemplo, traslación, zoom, o rotación. El uso del modelo de perspectiva es válido en los siguientes casos:
-
Todas las vistas comparten el mismo centro óptico. Este es más o menos el caso cuando se fija una cámara en un trípode giratorio: el eje de rotación puede pasar a través o muy cerca del centro óptico de la cámara. Si los objetos captados están muy lejos de la cámara, esta suposición siempre se verifica.
-
La escena captada corresponde a una superficie plana.
Una proyección de perspectiva transforma un rectángulo en un cuadrilátero. Las coordenadas en dos dimensiones de los cuatro vértices del cuadrilátero definen completamente los ocho parámetros de movimiento a_{0} a a_{7} de la proyección de perspectiva. Por lo tanto, los ocho parámetros de movimiento son, en la presente invención, las coordenadas en dos dimensiones de los cuatro vértices, que al principio del proceso son A(0)(a_{0}(0), a_{1}(0)), B(0)(a_{2}(0), a_{3}(0)), C(0)(a_{4}(0), a_{5}(0)) y D(0)(a_{6}(0), a_{7}(0)).
El método de estimación de movimiento según la invención permite cualquier desplazamiento de las cuatro esquinas de la imagen rectangular original para adecuarse a la siguiente mediante optimización de una función coste. Partiendo de una posición inicial para estos cuatro vértices, correspondientes a un establecimiento inicial de los parámetros de movimiento, el método intenta optimizar la función coste mediante desplazamientos leves de los cuatro vértices. Cada vértice se desplaza en una pequeña cantidad alrededor de su posición inicial con el fin de encontrar un máximo local para la función coste. Por ejemplo, A(0), se mueve a lo largo de la dirección d_{1}(0), que es en este caso particular una dirección horizontal, con el fin de encontrar un máximo de la función coste. Entonces, el punto obtenido se mueve a lo largo de la dirección d_{2}(0), que es en este caso particular una dirección vertical, hasta que se encuentra otro máximo dando un nuevo vértice A(1)((a_{0}(1), a_{1}(1)). Esta operación se realiza entonces sucesivamente para los otros vértices y se obtiene una nueva imagen cuadrilátera.
En la realización preferida la función coste se refiere a la Diferencia de Fotogramas Desplazados (DFD). La medida DFD se calcula en los píxeles pertenecientes al área S que se solapa tanto con el fotograma F(n) entrante como con la gran imagen M(n-1) estática actual según sigue:
DFP = \sum\limits_{S} \ r_{p}{}^{2},
siendo r_{p} una diferencia entre los valores originales y predichos de un píxel p, definida como sigue:
r_{p} = L(x,y)-L(x',y')
\newpage
en la que:
-
L(x, y) es el valor de luminancia de la señal de vídeo correspondiente al píxel p(x, y) del fotograma F(n) entrante,
-
L(x', y') es el valor de luminancia de la señal de vídeo correspondiente al píxel p(x', y') de la gran imagen M(n-1) estática.
(x', y') son el valor de punto flotante del píxel p' que ha de extraerse de la gran imagen estática. El valor de luminancia correspondiente a este píxel se calcula con respecto a las cuatro coordenadas enteras más cercanas en la imagen, que son (x_{0}, y_{0}), (x_{1}, y_{1}), (x_{2}, y_{2}), (x_{3}, y_{3}) con valores de luminancia respectivos L0, L1, L2 y L3, usando una interpolación bilineal:
L(x', y') = L0 + (x'-x_{0})(L1-L0) + (y'-y_{0})(L2-L0) + (x'-x_{0})(y'-y_{0}) (L3-L2-L1+L0)
La optimización de la función coste es, en este caso, una minimización de la diferencia de fotogramas desplazados. La DFD se calcula aquí con los valores de luminancia de las señales de vídeo pero también se pueden calcular con los valores de crominancia de las señales de vídeo.
En otra realización, la función coste se refiere a la Correlación de Fotogramas Desplazados (CFD). La medida CFD se calcula en los píxeles pertenecientes al área S que se solapa tanto con el fotograma F(n) entrante como con la gran imagen M(n-1) estática actual como sigue:
1
La optimización de la función coste es, en este caso, una maximización de la correlación de fotogramas desplazados. La CFD se calcula aquí con los valores de luminancia de las señales de vídeo pero también puede calcularse con los valores de crominancia de las señales de vídeo.
El método de estimación de movimiento según la invención comprende dos etapas principales:
-
Se realiza una primera etapa para inicializar los parámetros de movimiento automáticamente para los dos primeros fotogramas.
-
Durante una segunda etapa, cada parámetro de movimiento es optimizado independientemente, mediante minimización de una función coste que se refiere a la DFD. Esta función coste cost() es, en la realización preferida, un error cuadrático medio ponderado que se define como sigue:
2
en la que w_{p} es un coeficiente de ponderación, que se define como sigue:
3
en la que p es una función definida positiva, simétrica con un único máximo en r_{p}=0.
La función p se elige con el fin de reducir la influencia de los valores atípicos. En la realización preferida, la función p es una función lorentziana definida como sigue:
100 en la que \sigma es un factor de escala.
Otras funciones p pueden ser adecuadas para la presente invención tales como, por ejemplo, la función de German y McClure, que se define como sigue:
4
En una segunda realización, la función coste es otro error cuadrático medio ponderado, teniendo en cuenta una información del gradiente de un píxel p (grad_{p}) como sigue:
5
en la que T es un umbral cercano a 0 y en la que el coeficiente de ponderación w_{p} se define como sigue:
6
En esta segunda realización, el coeficiente de ponderación w_{p} del error cuadrático medio se normaliza dividiéndolo por la suma de todos los pesos en cada ubicación de píxel para favorecer pequeños desplazamientos con pequeños errores más que grandes desplazamientos con grandes errores. Además, la introducción de una información del gradiente permite:
-
dar más importancia a regiones en las que el gradiente es mayor que el umbral T, siendo estas regiones más apropiadas para propósitos de correspondencia,
-
rechazar regiones en las que el gradiente está por debajo del umbral T, permitiendo de este modo aumentar la velocidad de la estimación de coste.
La figura 2 es un diagrama de flujo que muestra el método usado para realizar la inicialización automática de los parámetros de movimiento para los dos primeros fotogramas.
En la realización preferida, una transformación de traslación, que sólo necesita dos parámetros de movimiento, se usa para conseguir una primera aproximación de los desplazamientos entre los dos primeros fotogramas de una secuencia de vídeo, en la que no se dispone de predicción.
La etapa de inicialización automática comprende:
-
una sub-etapa (INI) de inicialización de la posición del píxel xx_min correspondiente al mínimo de la función coste en una dirección horizontal: xx_min=0,
-
una sub-etapa (CALC) de cálculo del valor j de la posición del píxel correspondiente al mínimo de la función coste cost() cuando se aplican traslaciones al fotograma entrante en una dirección horizontal, estando la amplitud i del vector de traslación comprendida entre -5 y +5 píxeles: 101 siendo Argmin la función que devuelve la abcisa correspondiente al mínimo de la función coste, dando aquí el desplazamiento entre dos fotogramas para la dirección considerada.
-
una comprobación (Cj)del valor de j,
-
si la comprobación no se cumple (j no es igual a cero), una sub-etapa (INC) de recálculo del valor xx_min: xx_min=xx_min+j,
-
si la comprobación se cumple (j=0), el fin (RES) del proceso que da la traslación final xx_min en la dirección horizontal.
Se aplica el mismo algoritmo en la dirección vertical con el fin de encontrar la traslación yy_min que debe realizarse.
La figura 3 es un diagrama de flujo que muestra el proceso iterativo usado para optimizar los parámetros de movimiento. Este método se basa en el método de convergencia de Powell.
El conjunto de ocho parámetros de movimiento, correspondientes a las coordenadas de los cuatro vértices, se inicializa en los valores dados por la predicción de movimiento global, en a_{k}=0 con 0\leqk\leq7.
La etapa de optimización de los parámetros de movimiento comprende:
-
una sub-etapa (INIkI) de inicialización de k y de un contador 1: k=I=0;
-
una comprobación (Ck) del valor de k
-
si el valor de k es estrictamente menor que 8(y), una sub-etapa (PI) de cálculo del valor de los parámetros de movimiento a_{k}(I+1), que corresponde a un mínimo de la función coste cost();
102
seguida por una sub-etapa (INCk) de incrementación en uno de k.
-
en el caso contrario (n), una segunda comprobación (Ca) del máximo M, para los diferentes valores de k, del valor absoluto de la diferencia entre a_{k}(I+1) y a_{k}(I):
103
-
si el valor de M es inferior a un umbral (y), el fin (RESa) del proceso que da los valores de a_{k}(I+1),
-
en el caso contrario (n), una sub-etapa (DIR) de cálculo de nuevas direcciones de minimización, seguida de una sub-etapa (INCI) de incrementación en uno de I y una sub-etapa (INIk) de reinicialización de k.
La sub-etapa (PI) de cálculo del valor a_{k}(I+1) se realiza usando interpolaciones parabólicas. Se realiza una primera interpolación parabólica en los valores de la función coste correspondientes a tres píxeles consecutivos. Entonces, se realiza una nueva interpolación parabólica en los tres píxeles más cercanos al mínimo de la parábola encontrada previamente. El proceso termina cuando el mínimo de la parábola está comprendido en la ventana definida por los píxeles examinados. Tal método de cálculo aumenta la convergencia de la etapa de optimización. Cuando una operación de interpolación parabólica no es posible (es decir, cuando la parábola tiene un máximo en vez de un mínimo), el cálculo del valor de a_{k}(I+1) se realiza usando un descenso del gradiente, que consiste en comparaciones sucesivas de valores de la función coste de píxeles consecutivos hasta que se alcanza un mínimo de la función coste.
Cuando I=0, las direcciones seguidas por los ochos parámetros para minimizar la función coste son horizontales para abcisas o verticales para ordenadas, tal como se describe en la figura 1. Cuando I>1, las direcciones seguidas para optimización se revisan dada la última alteración, tal como se describe en la figura 4. La dirección de optimización se define como la dirección d_{1}(I) que va desde el vértice A(I-1) al vértice A(I) y su perpendicular d_{2}(I) y así sucesivamente para los otros tres vértices.
Este método de estimación de movimiento puede usarse en un método y su correspondiente dispositivo para generar una gran imagen M(n) estática, tal como un sprite o un mosaico. Dicho método se describe en la figura 5.
Tres etapas principales pueden componer una generación de una gran imagen M(n) estática. Primero, tiene que realizarse la etapa (ME) de estimación de movimiento global según la invención con el fin de combinar el fotograma F(n) entrante con la gran imagen M(n-1) estática ya compuesta de los fotogramas F(1), F(2)..., F(n-1) anteriores. Dicha etapa (ME) de estimación de movimiento global da los parámetros de movimiento a_{k}. El fotograma actual se compensa entonces usando los parámetros de movimiento; esta segunda etapa también se llama distorsión (WAR). El actual fotograma F(n) distorsionado se combina (BLE) finalmente con la gran imagen M(n-1) estática con el fin de formar una nueva gran imagen M(n-1) estática aumentada proporcionando una vista panorámica de la escena, que se guarda en una memoria (MEM) con el fin de combinarse con el siguiente fotograma F(n+1) entrante, y así sucesivamente.

Claims (10)

1. Método para estimar movimiento entre un fotograma F(n) entrante de una secuencia de fotogramas y una gran imagen M(n-1) estática, siendo dicha gran imagen estática un sprite o mosaico construido de fotogramas F(1)... F(n-1) anteriores de dicha secuencia, usando dicho método de estimación de movimiento un modelo de movimiento basado en una transformación de perspectiva en dos dimensiones que contiene ocho parámetros de movimiento y que comprende una etapa de optimización de una función coste, caracterizado porque dichos ocho parámetros de movimiento son las coordenadas de los cuatro vértices del fotograma entrante, moviéndose cada uno de dichos vértices sucesivamente e iterativamente en dos direcciones para encontrar una estimación de los parámetros de movimiento correspondientes a un máximo de la función coste.
2. Método de estimación de movimiento según la reivindicación 1, caracterizado porque la función coste se define por \sum\limits_{p}\frac{1}{2} w_{p}r_{p}^{2}, en la que r_{p} es una diferencia entre los valores originales y predichos de un píxel p y w_{p} es un coeficiente de ponderación.
3. Método de estimación de movimiento según la reivindicación 2, caracterizado porque el coeficiente de ponderación w_{p} es una función de la inversa de r_{p} y la derivada de p(r_{p}) en la que p es una función definida positiva, simétrica con un único máximo en r_{p}=0.
4. Método de estimación según la reivindicación 1, caracterizado porque la función coste se define por,
cost(r_{p}) = \frac{\sum\limits_{p/(grad_{p} \geq T)} w_{p}r_{p}{}^{2}}{\sum\limits_{p/(grad_{p} \geq T)} w_{p}}, en la que r_{p} es una diferencia entre los valores predichos y originales de un píxel p, T es un umbral y w_{p} es un coeficiente de ponderación.
5. Método de estimación de movimiento según la reivindicación 4, caracterizado porque el coeficiente de ponderación w_{p} se define por w_{p} = \frac{2}{2 + \frac{r_{p}{}^{2}}{1 + grad_{p}{}^{2} \sigma^{2}}}, en la que grad_{p} es un gradiente de un píxel p y \sigma es un factor de escala.
6. Método de estimación de movimiento según la reivindicación 1, caracterizado porque dicho método de estimación de movimiento incluye una etapa de inicialización automática de dichos parámetros de movimiento para los dos primeros fotogramas utilizando una transformación de traslación en dos dimensiones.
7. Método de estimación de movimiento según la reivindicación 1, caracterizado porque dicho método de estimación de movimiento incluye un primer método iterativo que comprende, en cada iteración, dicha etapa de optimización para determinar una estimación de los ocho parámetros de movimiento, seguida de una etapa de cálculo de las dos direcciones de movimiento de cada uno de los cuatro vértices teniendo en cuenta la última alteración, realizándose dicho método iterativo hasta que se alcanza un criterio definido.
8. Método de estimación de movimiento según la reivindicación 7, caracterizado porque dicha etapa de optimización comprende un segundo método iterativo que realiza, en cada iteración, una operación de interpolación parabólica de valores de dicha función coste para estimar sucesivamente los parámetros de movimiento.
9. Método para generar una gran imagen M(n) estática, tal como un sprite o un mosaico, que comprende un método para estimar movimiento según cualquiera de las reivindicaciones 1 a 8.
10. Dispositivo para generar una gran imagen M(n) estática, tal como un sprite o un mosaico, que comprende un circuito de estimación de movimiento que implementa un método de estimación de movimiento según cualquiera de las reivindicaciones 1 a 8.
ES00965961T 1999-09-21 2000-09-11 Metodo de estimacion de movimiento global. Expired - Lifetime ES2276696T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP99402310 1999-09-21
EP99402310 1999-09-21

Publications (1)

Publication Number Publication Date
ES2276696T3 true ES2276696T3 (es) 2007-07-01

Family

ID=8242119

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00965961T Expired - Lifetime ES2276696T3 (es) 1999-09-21 2000-09-11 Metodo de estimacion de movimiento global.

Country Status (8)

Country Link
US (1) US6707854B1 (es)
EP (1) EP1131955B1 (es)
JP (1) JP2003510910A (es)
KR (1) KR100798283B1 (es)
CN (1) CN1164121C (es)
DE (1) DE60032452T2 (es)
ES (1) ES2276696T3 (es)
WO (1) WO2001022733A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100905880B1 (ko) * 2001-09-12 2009-07-03 엔엑스피 비 브이 움직임 추정 방법 및 장치와, 인코딩 방법 및 인코더
US7602848B2 (en) * 2002-03-26 2009-10-13 General Instrument Corporation Methods and apparatus for efficient global motion compensation encoding and associated decoding
US7421129B2 (en) * 2002-09-04 2008-09-02 Microsoft Corporation Image compression and synthesis for video effects
US7558320B2 (en) * 2003-06-13 2009-07-07 Microsoft Corporation Quality control in frame interpolation with motion analysis
US7408986B2 (en) * 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US7400680B2 (en) * 2003-09-30 2008-07-15 Intel Corporation Rectangular-shape motion search
US7684628B2 (en) * 2004-08-12 2010-03-23 Industrial Technology Research Institute System and method for non-iterative global motion estimation
US20060215036A1 (en) * 2005-03-25 2006-09-28 Multivision Intelligent Surveillance (Hk) Ltd. Method and apparatus for video stabilization
US7193720B2 (en) * 2005-05-17 2007-03-20 Lockheed Martin Coherent Technologies, Inc. Optical vibration imager
IL170320A (en) * 2005-08-17 2010-04-29 Orad Hi Tec Systems Ltd System and method for managing the visual effects insertion in a video stream
US7456760B2 (en) * 2006-09-11 2008-11-25 Apple Inc. Complexity-aware encoding
KR101392732B1 (ko) * 2007-08-20 2014-05-08 삼성전자주식회사 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치
WO2009070508A1 (en) 2007-11-30 2009-06-04 Dolby Laboratories Licensing Corp. Temporally smoothing a motion estimate
CN104680504B (zh) * 2013-11-26 2018-06-08 杭州海康威视数字技术股份有限公司 场景变化检测方法及其装置
KR102559203B1 (ko) * 2018-10-01 2023-07-25 삼성전자주식회사 포즈 정보를 출력하는 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4023449C1 (es) * 1990-07-24 1992-01-23 Ant Nachrichtentechnik Gmbh, 7150 Backnang, De
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
US5611000A (en) * 1994-02-22 1997-03-11 Digital Equipment Corporation Spline-based image registration
JP3183155B2 (ja) * 1996-03-18 2001-07-03 株式会社日立製作所 画像復号化装置、及び、画像復号化方法
US6037988A (en) 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
WO1998024243A1 (en) * 1996-11-27 1998-06-04 Princeton Video Image, Inc. Motion tracking using image-texture templates
WO1998044739A1 (en) * 1997-03-31 1998-10-08 Sharp Kabushiki Kaisha Mosaic generation and sprite-based image coding with automatic foreground and background separation
EP1042918A1 (en) * 1998-08-05 2000-10-11 Koninklijke Philips Electronics N.V. Static image generation method and device

Also Published As

Publication number Publication date
DE60032452T2 (de) 2007-10-11
EP1131955A1 (en) 2001-09-12
US6707854B1 (en) 2004-03-16
WO2001022733A1 (en) 2001-03-29
KR100798283B1 (ko) 2008-01-28
CN1164121C (zh) 2004-08-25
KR20010080523A (ko) 2001-08-22
DE60032452D1 (de) 2007-02-01
EP1131955B1 (en) 2006-12-20
JP2003510910A (ja) 2003-03-18
CN1322443A (zh) 2001-11-14

Similar Documents

Publication Publication Date Title
ES2276696T3 (es) Metodo de estimacion de movimiento global.
JP5744217B2 (ja) 安定化と標的再設定のためのビデオを処理する方法及びシステム
CN111279673B (zh) 具有电子卷帘快门校正的图像拼接的系统和方法
US10104288B2 (en) Method and apparatus for generating panoramic image with stitching process
US5960108A (en) Method and system for creating an image-based virtual reality environment utilizing a fisheye lens
ES2258311T3 (es) Sistema y procedimiento para la estabilizacion electronica de imagenes.
US8102428B2 (en) Content-aware video stabilization
US20140362240A1 (en) Robust Image Feature Based Video Stabilization and Smoothing
US10810700B2 (en) Method of adjusting texture coordinates based on control regions in a panoramic image
JP4837615B2 (ja) 画像処理方法および画像処理装置
CN103379291A (zh) 图像处理装置、图像处理方法和程序
CN105069753B (zh) 一种面向移动终端的抖动模糊图像复原方法
US20110058610A1 (en) Methods and Systems for Motion Estimation with Nonlinear Motion-Field Smoothing
WO2008114264A2 (en) A method and apparatus for video image stabilization
US7126603B2 (en) Method and system for creating interactive walkthroughs of real-world environment from set of densely captured images
Eichenseer et al. A hybrid motion estimation technique for fisheye video sequences based on equisolid re-projection
Parger et al. Motiondeltacnn: Sparse cnn inference of frame differences in moving camera videos with spherical buffers and padded convolutions
EP1042918A1 (en) Static image generation method and device
CN115131213A (zh) 一种实时红外双目图像拼接方法及系统
Unnikrishnan et al. Video stabilization performance enhancement for low-texture videos
US20200021838A1 (en) Tracking an object in a sequence of panoramic images
Nguyen et al. Adding synchronization and rolling shutter in multi-camera bundle adjustment
Bagnato et al. Plenoptic based super-resolution for omnidirectional image sequences
Caner et al. An adaptive filtering framework for image registration
Parger et al. MotionDeltaCNN: Sparse CNN Inference of Frame Differences in Moving Camera Videos