ES2357556T3 - Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. - Google Patents
Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. Download PDFInfo
- Publication number
- ES2357556T3 ES2357556T3 ES03012129T ES03012129T ES2357556T3 ES 2357556 T3 ES2357556 T3 ES 2357556T3 ES 03012129 T ES03012129 T ES 03012129T ES 03012129 T ES03012129 T ES 03012129T ES 2357556 T3 ES2357556 T3 ES 2357556T3
- Authority
- ES
- Spain
- Prior art keywords
- processing
- images
- operating parameters
- image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 16
- 230000015572 biosynthetic process Effects 0.000 title 1
- 230000002452 interceptive effect Effects 0.000 title 1
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 230000002123 temporal effect Effects 0.000 claims description 27
- 230000033228 biological regulation Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 6
- 238000011002 quantification Methods 0.000 description 16
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/637—Control signals issued by the client directed to the server or network components
- H04N21/6373—Control signals issued by the client directed to the server or network components for rate control, e.g. request to the server to modify its transmission rate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/162—User input
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/164—Feedback from the receiver or from the transmission channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/637—Control signals issued by the client directed to the server or network components
- H04N21/6377—Control signals issued by the client directed to the server or network components directed to server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Un sistema de tratamiento o procesado de imágenes para recibir, procesar y visualizar una multiplicidad de imágenes, comprendiendo dicho sistema de formación de imágenes: un dispositivo emisor (42), conectado a una cámara (44), para recibir dicha multiplicidad de imágenes desde esta última; medios (48, 50, 54) de tratamiento o procesado de imágenes en dicho dispositivo emisor para procesar dicha multiplicidad de imágenes y generar una señal digital correspondiente a dicha multiplicidad de imágenes de acuerdo con una pluralidad de parámetros de funcionamiento; un dispositivo receptor (58) para recibir dicha señal digital del dispositivo emisor; un canal (56) de reenvío, desde el dispositivo emisor al receptor, para transmitir dicha señal digital; una unidad (66) de pantalla conectada al dispositivo receptor; un canal (72) de retorno desde el dispositivo receptor al dispositivo emisor; medios (68, 70) de interfaz, en el dispositivo receptor, para enviar una orden a través del canal de retorno; caracterizado porque dicho canal de retorno se extiende entre el dispositivo receptor y los medios de tratamiento o procesado de imágenes; dichos medios de interfaz están dispuestos para recibir una pluralidad de solicitudes de un observador, para traducir las solicitudes en órdenes, y para transmitir las órdenes hacia los medios de tratamiento o procesado de imágenes; dichos medios de tratamiento o procesado de imágenes están dispuestos para generar dicha señal digital de acuerdo con parámetros de funcionamiento que se modifican basándose en dichas órdenes; con lo cual un observador del dispositivo de pantalla puede modificar de forma interactiva los parámetros de funcionamiento de acuerdo con los cuales se procesan imágenes subsiguientes.
Description
ANTECEDENTES DE LA PRESENTE INVENCIÓN
Campo de la invención
La presente invención se refiere en general a un sistema y un método de formación electrónica de imágenes, en particular, a un sistema y un método mejorados de formación de imágenes para personalizar las imágenes según las especificaciones del observador, y, más particularmente, a un sistema y un método de formación de imágenes que permiten que el observador, a través de un canal de retorno, ajuste los parámetros de resolución espacial y temporal y de cuantificación de una imagen.
Antecedentes y objetivos de la presente invención
Con el crecimiento de la industria de la electrónica de consumo durante las últimas décadas, ha surgido una variedad de sistemas de formación electrónica de imágenes, de complejidad creciente, por ejemplo, grabadores de vídeo, videocámaras y similares. El documento WO-A-94/03014 da a conocer un sistema de monitorización de seguridad por vídeo, en el que un usuario puede controlar de forma remota parámetros de la cámara, y en el que, al detectarse un movimiento, se cambian los parámetros de la señal de vídeo. Adicionalmente, las comunicaciones de videoconferencia están resultando cada vez más importantes ya que nuestra sociedad se interconecta cada vez más y de manera interactiva.
Tal como se entiende en esta técnica, las imágenes de vídeo, es decir, en movimiento, experimentan una codificación para reducir la cantidad de información necesaria para representar una imagen determinada. La codificación afecta tanto a la resolución espacial, es decir, el detalle dentro de un cuadro de imagen particular, como a la resolución temporal, es decir, el número de dichos cuadros de imagen por segundo. Típicamente, estos parámetros son fijos dentro de un sistema de vídeo convencional, tal como el mostrado en la FIGURA 1 de los Dibujos y al que se hace referencia en general en el presente documento como número 10. El sistema 10 de vídeo de la figura incluye un dispositivo emisor 12 que recibe señales de una cámara 14. Debe entenderse que no se ilustran varias partes de la cámara 14 que no están relacionadas con la presente invención, por ejemplo, el diafragma, el obturador y similares. Por consiguiente, tal como se entiende en esta técnica, la imagen óptica que está delante de la cámara 14, tal como el individuo representado, es recibida por una lente 16 de cámara y convertida en una señal de vídeo analógica, por ejemplo, mediante un dispositivo acoplado por carga, convencional. Debe entenderse que la cámara 14 puede ser una cámara digital que reenvía datos digitales hacia un dispositivo submuestreador 18 dentro del dispositivo emisor 12. No obstante, si la cámara 14 no es digital, y no es necesaria una conversión analógica-a-digital, entonces el dispositivo 18 puede funcionar también como un conversor A/D, tal como se entiende en la técnica. El submuestreador 18 determina valores de píxel que representan la imagen de vídeo capturada con una resolución espacial particular, es decir, píxeles por línea y líneas por imagen, y una resolución temporal, es decir, imágenes por segundo. Otro parámetro relacionado con la resolución tanto espacial como temporal es la cuantificación, es decir, una medida de la cantidad de distorsión presente en la señal de vídeo, tal como se describirá de forma más detallada posteriormente en el presente documento.
Un codificador 20 codifica los datos de imagen digitales antes descritos para obtener un flujo continuo de señal de vídeo que fluye hacia una memoria intermedia 22. Tal como se entiende en la técnica y se describe de forma adicional en el presente documento, la velocidad del flujo de información desde el codificador 20 hacia la memoria intermedia 22 varía de acuerdo con el grado de codificación. Adicionalmente, el flujo continuo de señal de vídeo incluye típicamente señales comprimidas, en las que el codificador 20 ha condensado o comprimido información de imágenes para facilitar su transmisión o almacenamiento. Un conjunto de formatos que usa dichas tecnologías de compresión es el especificado por el Grupo de Expertos en Imágenes en Movimiento (MPEG), una normativa de acuerdo con la Organización Internacional para Normalización/Comisión Electrotécnica Internacional (ISO/IEC). Otras tecnologías de compresión son las normativas H.261, H.262 y H.263 de la Unión Internacional de Telecomunicaciones, Sección de Teleconferencia (ITU-T) para su uso, por ejemplo, en videoconferencia.
En combinación con estas normativas y técnicas de formatos de datos de imágenes, mediante las cuales el codificador 20 proporciona una sintaxis para el flujo continuo de bits subsiguiente, el codificador 20 utiliza también algoritmos de compresión, tales como Transformadas de Coseno Discretas (DCT), codificación Huffman y otros mecanismos, con lo cual la cantidad de datos necesarios para representar la imagen se reduce drásticamente al mismo tiempo que se mantiene de manera sustancial la integridad de la imagen. Tal como entenderán aquellos expertos en la materia, estas y otras técnicas eliminan o reducen la transmisión de redundancias entre tramas y otra información que no son necesarias o que son repetitivas, y aprovecha varios aspectos fisiológicos y sicológicos de la percepción humana para presentar una imagen coherente a los ojos del observador.
Haciendo referencia adicionalmente a la FIGURA 1, el submuestreador 18, el codificador 20 y la memoria intermedia 22 son controlados por una unidad 24 de control, que controla también otras funciones del sistema 10 de formación de imágenes. Por ejemplo, la unidad 24 de control controla la secuenciación de las operaciones antes descritas, es decir, la captación de imágenes por la cámara 14 a través de una conexión con la misma (no mostrada), la conversión de los píxeles en el submuestreador 18, la compresión en el codificador 20, la grabación de las imágenes codificadas en un soporte de grabación magnético o electrónico (no mostrado), y otras operaciones. La unidad 24 de control suministra al codificador 20 una pluralidad de parámetros de funcionamiento para gobernar la transformación antes mencionada de datos de píxeles en un flujo continuo de bits comprimido correspondiente. Tal como se ha descrito, la unidad 24 de control gobierna también la velocidad de bits variable del flujo de información hacia la memoria intermedia 22 para mantener un nivel particular de datos y evitar en la misma tanto el desbordamiento como el subdesbordamiento.
Tal como se entiende en esta técnica, la finalidad principal de la memoria intermedia 22 es regular el flujo de datos desde el codificador 20 y reenviar esos datos a una velocidad fija a través de un canal 26 de transmisión hacia un dispositivo receptor 28, en particular, a una memoria intermedia 30 en este último, que, igual que la memoria intermedia 22, actúa como un depósito que almacena los datos y que regula su uso. Evidentemente, debe entenderse que el canal 26 puede transferir datos a una velocidad variable, por ejemplo, un servicio de velocidad variable de una red de Modo de Transferencia Asíncrono (ATM). Sin embargo, el caudal variable de datos desde el codificador 20 no concuerda en general con el del canal 26, fijo o variable.
La memoria intermedia 30 reenvía los datos de imagen recibidos, a una velocidad fija o variable según sea necesario, hacia un decodificador 32. De manera similar al proceso de codificación, el decodificador 32 invierte los algoritmos de compresión antes descritos para expandir la imagen según los parámetros de funcionamiento antes mencionados. En otras palabras, el decodificador 32 descomprime la información comprimida en el flujo continuo de bits y reconstruye la imagen de acuerdo con el formato de imagen pertinente usado, por ejemplo, el ITU-R/601 Digital Studio Standard, y los parámetros de funcionamiento. A continuación, la imagen reconstruida se sitúa dentro de un dispositivo 34 de almacenamiento de imágenes, cuyo contenido se puede visualizar continuamente en una pantalla 36 de vídeo, siendo conocida en la técnica la circuitería de esta última.
Tal como se ha descrito, las tecnologías de compresión antes descritas utilizan varias técnicas para condensar la información de las imágenes. El decodificador 32 está configurado para interpretar el formato y los parámetros de funcionamiento por medio de los cuales el codificador 20 codificó la información de las imágenes. Tal como es sabido en la técnica, a gran parte del proceso de decodificación realizado dentro del decodificador 32 se le puede denominar “normalizado”, es decir, fijado por la normativa particular usada, por ejemplo, MPEG. Consecuentemente, el decodificador 32 reconoce fácilmente estas partes normalizadas de una señal del codificador 20, es decir, cómo interpretar los bits transmitidos en el flujo de bits.
En un aparato convencional que utiliza la tecnología anterior, los parámetros de funcionamiento antes mencionados son fijos dentro del sistema 10 de vídeo. Habitualmente, el codificador 20 utiliza valores fijos de resolución espacial y temporal, que se adecuan bien a los requisitos de la memoria intermedia 22, garantizando un flujo continuo de bits de velocidad fija a través del canal 26 de transmisión. Sin embargo, la memoria intermedia 22, en un esfuerzo por mantener la velocidad de transmisión requerida por el canal 26, ajusta la cuantificación o distorsión de las imágenes pertinentes. La cuantificación se convierte entonces en una función de la compleción de la memoria intermedia 22, que, a su vez, es una función de la complejidad de las imágenes de vídeo en cuestión, es decir, qué consumo de bits presentan las imágenes durante la compresión. Algunos codificadores 20 tienen solamente una resolución espacial fija y la memoria intermedia 22 ajusta la cuantificación y la resolución temporal para mantener la velocidad de bits constante. El equilibrio entre la cuantificación y la resolución temporal se gobierna mediante un algoritmo de regulación de memoria intermedia, tal como es sabido en la técnica.
No obstante, un problema con la configuración anterior es que los parámetros de funcionamiento antes mencionados pueden resultar inadecuados en ciertas circunstancias, y el algoritmo de regulación de memoria intermedia u otro esquema de balance de la resolución puede requerir un ajuste para adecuarse a las necesidades del observador humano que puede tener en mente un balance diferente de la resolución espacial/temporal y la distorsión. Por ejemplo, algunas aplicaciones de vídeo pueden requerir una resolución temporal mayor a costa de una cuantificación aproximada, por ejemplo, la comunicación de vídeo entre personas sordas (lenguaje de signos), que prefieren una resolución temporal elevada. Adicionalmente, las aplicaciones de vigilancia requieren normalmente una mayor resolución espacial y una cuantificación precisa a costa de la resolución temporal.
Además, con el aumento creciente del uso y la aptitud de los consumidores en los sistemas de formación electrónica de imágenes, los camarógrafos sofisticados desean un control cada vez mayor sobre los parámetros de funcionamiento y pueden realizar ajustes finos en el balance entre la resolución espacial y temporal y la cuantificación para una multitud de otras aplicaciones, sintonizando de forma precisa estos parámetros para un efecto objetivo o subjetivo.
No obstante, con estos parámetros de funcionamiento fijados, los camarógrafos o cualquier otro usuario del aparato de vídeo que presenta estas características inalterables no puede realizar ningún ajuste en el aparato, y el codificador 20 funciona sin ninguna realimentación proveniente del observador.
Por consiguiente, un primer objetivo de la presente invención es proporcionar al observador unos medios para ajustar las variables antes mencionadas de las resoluciones espacial y temporal y de la cuantificación para adecuarse a sus necesidades individuales.
Es un objetivo más particular de la presente invención proporcionar unos medios de realimentación desde el observador hacia el codificador, que permitan que el observador disponga de una flexibilidad aumentada sobre los parámetros de funcionamiento antes mencionados.
La presente invención, que se define en las reivindicaciones adjuntas, se refiere a una mejora en un sistema de formación de imágenes para proporcionar un aumento del control, por parte del observador, sobre los parámetros de funcionamiento del sistema de formación de imágenes. El control por parte del observador se facilita incluyendo un canal de retorno dentro del sistema de formación de imágenes, que permite que el observador ajuste los parámetros de funcionamiento, por ejemplo, la resolución espacial y temporal, y la cuantificación, de la transmisión de vídeo.
Se puede obtener una apreciación más completa de la presente invención a partir de los dibujos adjuntos, los cuales se resumen de forma breve a continuación, la siguiente descripción detallada de las realizaciones actualmente preferidas de la invención, y las reivindicaciones adjuntas.
La FIGURA 1 es un diagrama de bloques que ilustra un sistema convencional de formación electrónica de imágenes; y
la FIGURA 2 es un diagrama de bloques que ilustra un sistema de formación electrónica de imágenes según la presente invención.
A continuación en el presente documento, se describirá de forma más detallada la presente invención, haciendo referencia a los dibujos adjuntos, en los que se muestran realizaciones preferidas de la invención. No obstante, esta invención se puede materializar en muchas formas diferentes y no debe considerarse como limitada a las realizaciones que se exponen en el presente documento, sino que estas realizaciones se proporcionan de manera que la presente descripción resulte minuciosa y completa, y comunique en su totalidad el alcance de la invención a aquellos expertos en la materia.
A continuación, en referencia a la FIGURA 2 de los dibujos, se ilustra un sistema de formación electrónica de imágenes, representado de forma general con el número 40, que incorpora la materia objeto de la presente invención. El sistema 40 de formación de imágenes ilustrado en la FIGURA 2, igual que el sistema 10 de formación de imágenes convencional que se expone en la FIGURA 1, incluye un dispositivo emisor 42 que recibe señales de una cámara 44 que captura y graba una imagen óptica, tal como el individuo representado. Tal como se describe, no se ilustran las diversas partes de la cámara 44 que no están relacionadas con la presente invención. La imagen óptica que está delante de la cámara 44 es recibida por una lente 46 de cámara y convertida en una señal, según se ha descrito. A continuación, la señal antes mencionada se reenvía a un dispositivo submuestreador 48, que determina valores de píxel que representan la imagen de vídeo capturada con una resolución espacial particular, es decir, píxeles por línea y líneas por imagen, y una resolución temporal, es decir, imágenes por segundo. Tal como se ha descrito en relación con el sistema 10 de formación de imágenes de la FIGURA 1, un codificador 50 codifica los datos digitales antes descritos para obtener un flujo continuo de señal de vídeo con unas resoluciones espacial y temporal particulares, que, en los sistemas convencionales, son fijas.
Igual que con el dispositivo emisor 12 del sistema 10 de formación de imágenes convencional, el dispositivo emisor 42 incluye una memoria intermedia 52 para recibir el flujo continuo de señal de vídeo comprimida, codificada, del codificador 50, y una unidad 54 de control para controlar las operaciones del conversor 48, el codificador 50 y la memoria intermedia 52. Tal como se ha descrito, la unidad 54 de control suministra al codificador 50 los parámetros de funcionamiento antes descritos para gobernar la transformación de los datos. Mientras que en el sistema convencional ilustrado en la FIGURA 1, varios parámetros eran fijos, por ejemplo, las resoluciones espacial y temporal antes mencionadas, un usuario del sistema 40 de vídeo de la presente invención puede controlar de forma variable estos parámetros, tal como se describirá de forma más detallada posteriormente en el presente documento.
Igual que con el sistema convencional, la memoria intermedia 52 gestiona el flujo variable de datos proveniente del codificador 50 y da salida a un flujo continuo de bits de datos de vídeo de velocidad fija a través de un canal 56 de transmisión hacia un dispositivo receptor 58, particularmente, hacia una memoria intermedia 60 de este último, que, igual que la memoria intermedia 30 de la FIGURA 1, recibe el flujo fijo de datos y lo reenvía hacia un decodificador 62. Igual que con el canal 26, debe entenderse que el canal 56 puede permitir caudales variables de los datos.
De forma similar al proceso de codificación, el decodificador 62 invierte los algoritmos de compresión antes descritos para expandir la imagen de acuerdo con los parámetros de funcionamiento antes mencionados. El decodificador 62 descomprime la información comprimida y formateada del flujo continuo de bits y reconstruye la imagen de acuerdo con el formato pertinente y los parámetros de funcionamiento. A continuación, la imagen reconstruida se sitúa dentro de un dispositivo 64 de almacenamiento de imágenes, cuyo contenido se puede visualizar continuamente en una pantalla 66 de vídeo, que, en la FIGURA 2, visualiza el individuo antes mencionado.
Tal como se ha descrito, el decodificador 62 está configurado para decodificar información normalizada proveniente del codificador 50, es decir, el formato, la normativa y los parámetros de funcionamiento del flujo continuo de bits de datos de vídeo. Por lo tanto, debe entenderse que el decodificador 62, así como el decodificador 32, reconocen estas partes normalizadas de una señal del codificador 50, por ejemplo, el formato de vídeo particular usado, por ejemplo, la normativa ITU-R/601 antes mencionada, y las diversas normativas de compresión, por ejemplo, ISO/IEC MPEG-1, MPEG-2, y MPEG-4, e ITU-T H.261, H.262 y H.263. Aunque el decodificador 62 tiene preferentemente un diseño convencional y, por lo tanto, puede interpretar las señales de comunicación normalizadas pertinentes, debe entenderse que el decodificador 62 también se puede configurar para aceptar órdenes no normalizadas, es decir, órdenes o información que se sitúan fuera de la normativa particular que se está usando, según se describe posteriormente en el presente documento.
Como el codificador 50 (y el proceso de codificación) no se especifica dentro de las normativas antes mencionadas (todo lo que importa es una decodificación correcta), los diseñadores de los sistemas de vídeo tienen un nivel alto de libertad en cuanto a los aspectos no normalizados de implementación de la tecnología. Mientras el decodificador 62 pueda interpretar las normativas pertinentes y esté configurado para decodificar las funciones no normalizadas particulares deseadas, se pueden implementar numerosas opciones adicionales, tales como la modificación de la calidad de la imagen, según se describirá de forma más detallada posteriormente en el presente documento.
En referencia nuevamente a la FIGURA 2, el dispositivo receptor 58 incluye también un dispositivo 68 de interfaz humana, a través del cual se pueden ajustar muchos de los parámetros de funcionamiento antes descritos, por ejemplo, para modificar la claridad de la imagen (resolución espacial y cuantificación), la frecuencia (resolución temporal
o frecuencia de cuadro) y otras características. El dispositivo 68 de interfaz humana, que puede incluir un botón, un control deslizante, un teclado u otro aparato de interfaz convencional, reenvía los cambios indicados a un traductor 70, que convierte los cambios en una señal. La señal antes descrita se envía entonces de vuelta a la unidad 54 de control del dispositivo emisor 42 a través de un canal 72 de retorno.
Por medio de la configuración del sistema 40 de vídeo con la capacidad de señalización del canal 72 de retorno, el observador, a través de la interfaz 68, puede modificar de forma interactiva varios parámetros de funcionamiento, tales como aquellos que definen la calidad de la imagen. Por ejemplo, en el sistema 40 de vídeo de la presente invención se pueden implementar los siguientes parámetros de funcionamiento para regular la calidad de la
- imagen:
- (a)
- resolución espacial alta/baja (detalle de imagen),
- (b)
- resolución temporal alta/baja (frecuencia de cuadro),
- (c)
- cuantificación alta/baja (distorsión de la imagen),
- (d)
- balance entre (a) y (b),
- (e)
- balance entre (a) y (c), y
- (f)
- balance entre (b) y (c).
Debe entenderse que, mientras que el sistema 10 de vídeo convencional utiliza parámetros de funcionamiento (a), (b) y
- (c)
- fijos, el sistema 40 de vídeo de la presente invención permite la modificación del balance entre estos parámetros de funcionamiento. En el sistema 10 de vídeo convencional, si se cambiase o bien (a) o bien (b), entonces debería ajustarse la cantidad de distorsión (c) para lograr la velocidad de bits requerida. Por consiguiente, seleccionar (a) es equivalente a seleccionar (e), un balance entre la resolución espacial y la cuantificación. De modo similar, seleccionar
- (b)
- es equivalente a seleccionar (f), un balance entre la resolución temporal y la cuantificación. Debe entenderse también que seleccionar (c) es asimismo equivalente a seleccionar (f) puesto que un codificador típicamente no modifica su resolución espacial pero puede ajustar fácilmente la resolución temporal. Tal como se ha descrito, el observador puede desear un balance de resolución de imagen diferente al que se esté usando actualmente, es decir, o bien el balance predeterminado antes mencionado o bien un balance seleccionado previamente, y puede desear ajustar los reglajes de los parámetros de funcionamiento para lograr un balance deseado. A través de la interacción con la interfaz humana 68, por ejemplo, pulsando o girando un botón 74 (que constituye la interfaz 68 ó está conectado a la misma a través de una conexión 75) en el dispositivo 74 de pantalla o un botón similar 76 en un dispositivo remoto 78 mostrado también en la FIGURA 2, el traductor 70 puede reenviar una palabra de código particular u otras indicaciones que indiquen la orden particular correspondiente a las mismas, de vuelta al codificador 50, que ajusta sus operaciones de manera correspondiente. Por ejemplo, el observador puede reenviar las órdenes “A+” para incrementar la resolución espacial, “B-“ para reducir la resolución temporal, “F+” para reducir la distorsión, etcétera. Evidentemente, debe entenderse que las órdenes anteriores son únicamente ejemplificativas, y el sistema 40 de vídeo puede utilizar otros símbolos para implementar los cambios deseados del observador. En cualquier caso, el flujo continuo de bits después del ajuste debe reflejar el cambio indicado.
Adicionalmente, desde el traductor 70, a través del canal 72 de retorno, se puede enviar una solicitud de un balance nuevo entre la resolución temporal y la distorsión de codificación, en forma de “q<k>”, en donde “q” representa el tipo de orden solicitada y “<k>” indica un valor particular para esa orden. Debe entenderse que “k” está preferentemente dentro de un intervalo discreto predefinido de valores permisibles. Puesto que el número de resoluciones permisibles es bastante elevado en las normativas de compresión antes mencionadas, por ejemplo, MPEG-1, MPEG-2, ITU-T H.261 y otras, el intervalo de resoluciones en una implementación específica se especifica preferentemente y es gobernado mediante las capacidades de la cámara (14 ó 44) y el submuestreador (18 ó 48) particulares usados. Alternativamente, puede resultar útil limitar el número de dichas resoluciones a un conjunto pequeño, asignando a cada una un código exclusivo. La resolución temporal se puede designar de manera similar dentro de un intervalo discreto de valores, aunque puede haber restricciones en los múltiplos del periodo de cuadro mínimo, por ejemplo, 1/30 de un segundo. De forma similar, la cuantificación, típicamente competencia de los fabricantes de equipos, se puede seleccionar dentro de un intervalo, por ejemplo, suministrado por el fabricante en particular. De esta manera, debe entenderse adicionalmente que el codificador 50, al producirse la recepción de una palabra de código determinada, tal como “q”, puede fijar de forma correspondiente una pluralidad de parámetros internos. De modo similar, también se pueden fijar varios parámetros internos de la memoria intermedia 52.
Además, la solicitud particular del observador transmitida a través del canal 72 de retorno se puede definir de manera que sea válida según una serie de formas diferentes, que incluyen:
- (A)
- para siempre, hasta que se proporcione una solicitud nueva;
- (B)
- durante un periodo de tiempo limitado, a saber, x segundos, en donde x está predefinido;
- (C)
- durante un número limitado de n imágenes, en donde n está predefinido;
- (D)
- durante tanto tiempo como lo indique una palabra de código “x” transmitida; y
- (E)
- tantas imágenes como indique una palabra de código “n” transmitida.
Por ejemplo, un usuario puede solicitar una imagen con una resolución espacial muy alta, que puede constituir una imagen fija de alta resolución, presionando el botón 74 (o el botón 76 en el dispositivo remoto 78), lo cual provoca que el traductor 70 genere una palabra de código específica, por ejemplo, “s” de fija (still), la cual se definiría como válida para una única imagen (n=1 para la opción C anterior). La orden completa transmitida a través del canal 72 de retorno sería entonces “sC1”. Además, “g3A” puede indicar un nivel de cuantificación 3 a partir de ese momento, y “t1B5” sería de modo similar un nivel de resolución temporal 1 durante 5 segundos.
Considerando la descripción anterior, debe entenderse que un observador puede utilizar una amplia variedad de órdenes no normalizadas para personalizar imágenes de vídeo para varios usos.
Se pueden encontrar otros detalles de los aspectos de gestión de imágenes fijas de la configuración del sistema 40 de vídeo de la presente invención en la solicitud de patente de los Solicitantes, en tramitación con la presente, titulada “Method and Apparatus for Still Picture Transmission and Display”, presentada simultáneamente con la presente e incorporada a esta última a título de referencia.
Debe entenderse que los principios antes descritos de la presente invención también se pueden aplicar en otros contextos, tales como videoconferencia, con lo cual un observador puede adaptar la señal recibida para adecuarla a sus necesidades. Por ejemplo, si resulta importante identificar individuos u objetos, es preceptivo entonces un incremento de la resolución espacial y una cuantificación más precisa (menos distorsión) a expensas de la resolución temporal. Si es importante la continuidad de la imagen, se puede sacrificar entonces resolución espacial y distorsión para lograr una estabilidad temporal. Debe considerarse que, dentro del ámbito de la presente descripción, se sitúan otras variantes, tales como captar una imagen fija de un participante remoto o sintonizar de forma precisa la imagen recibida para otras aplicaciones.
Debe entenderse que el dispositivo emisor 42 puede residir dentro de la cámara 44 y el dispositivo receptor 58 puede residir dentro del dispositivo 66 de pantalla, tal como en los sistemas de vídeo convencionales. Sin embargo, debe entenderse que los dispositivos tanto emisor 42 como receptor 58 pueden estar incorporados en cambio dentro de terminales multifuncionales, por ejemplo, como un transmisor/receptor móvil con capacidad de vídeo, se pueden implementar en software (con los componentes de hardware requeridos, tales como la interfaz 69) dentro de un ordenador general, se pueden implementar como cajas de equipo independientes con conectores de entrada y salida, o se pueden incluir (por lo menos en el extremo receptor) como parte de una red de servicios de valor añadido, es decir, un recurso compartido en la red.
Debe entenderse además que la unidad 54 de control mostrada en la FIGURA 2 también puede controlar operaciones de la cámara 44 a través de una conexión con esta última (no mostrada). De esta manera, el zoom, la panoramización, la inclinación, el iris de la cámara y otras funciones de la misma pueden ser controlados por el usuario gracias al canal 72 de retorno.
Claims (6)
- REIVINDICACIONES1. Un sistema de tratamiento o procesado de imágenes para recibir, procesar y visualizar una multiplicidad deimágenes, comprendiendo dicho sistema de formación de imágenes: un dispositivo emisor (42), conectado a una cámara (44), para recibir dicha multiplicidad de imágenes desde esta última;medios (48, 50, 54) de tratamiento o procesado de imágenes en dicho dispositivo emisor para procesar dicha multiplicidad de imágenes y generar una señal digital correspondiente a dicha multiplicidad de imágenes de acuerdo con una pluralidad de parámetros de funcionamiento;un dispositivo receptor (58) para recibir dicha señal digital del dispositivo emisor; un canal (56) de reenvío, desde el dispositivo emisor al receptor, para transmitir dicha señal digital; una unidad (66) de pantalla conectada al dispositivo receptor; un canal (72) de retorno desde el dispositivo receptor al dispositivo emisor; medios (68, 70) de interfaz, en el dispositivo receptor, para enviar una orden a través del canal de retorno;caracterizado porquedicho canal de retorno se extiende entre el dispositivo receptor y los medios de tratamiento o procesado de imágenes;dichos medios de interfaz están dispuestos para recibir una pluralidad de solicitudes de un observador, para traducir las solicitudes en órdenes, y para transmitir las órdenes hacia los medios de tratamiento o procesado de imágenes;dichos medios de tratamiento o procesado de imágenes están dispuestos para generar dicha señal digital de acuerdo con parámetros de funcionamiento que se modifican basándose en dichas órdenes;con lo cual un observador del dispositivo de pantalla puede modificar de forma interactiva los parámetros de funcionamiento de acuerdo con los cuales se procesan imágenes subsiguientes.
- 2. Un sistema de tratamiento o procesado de imágenes según la reivindicación 1, caracterizado porque los parámetros de funcionamiento a modificar son la resolución espacial, la resolución temporal y las combinaciones de las mismas.
- 3. Sistema de tratamiento o procesado de imágenes según la reivindicación 2,caracterizado porque los parámetros de funcionamiento a modificar son diferentes de los parámetros de funcionamiento de una normativa particular usada por el sistema de tratamiento o procesado de imágenes.
- 4. Sistema de tratamiento o procesado de imágenes según la reivindicación 2,caracterizado porque dicha orden para modificar un parámetro de funcionamiento de las imágenes indica que la orden particular se ha definido de manera que es válida:
- –
- para siempre, hasta que se proporcione una orden nueva,
- –
- durante un periodo de tiempo limitado,
- –
- durante un número limitado de imágenes.
-
- 5.
- Sistema de tratamiento o procesado de imágenes según la reivindicación 2, en el que el dispositivo receptor comprende un decodificador (62) de imágenes configurado para decodificar señales de imágenes digitales codificadas de acuerdo con parámetros de funcionamiento que son diferentes de los parámetros de funcionamiento de una normativa particular usada por el sistema de tratamiento o procesado de imágenes.
-
- 6.
- Sistema de tratamiento o procesado de imágenes según cualquiera de las reivindicaciones anteriores, caracterizado porque los medios de interfaz incluyen uno de entre un botón, un control deslizante, un teclado, un dispositivo remoto, o una combinación de los mismos.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/823,656 US6384862B1 (en) | 1997-03-12 | 1997-03-12 | Imaging system and method for interactive control of image quality |
US823656 | 1997-03-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2357556T3 true ES2357556T3 (es) | 2011-04-27 |
Family
ID=25239340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03012129T Expired - Lifetime ES2357556T3 (es) | 1997-03-12 | 1998-03-05 | Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. |
Country Status (9)
Country | Link |
---|---|
US (1) | US6384862B1 (es) |
EP (2) | EP0966838A1 (es) |
JP (1) | JP2001514825A (es) |
AU (1) | AU6427298A (es) |
CA (1) | CA2283215C (es) |
DE (1) | DE69842124D1 (es) |
ES (1) | ES2357556T3 (es) |
TW (1) | TW453113B (es) |
WO (1) | WO1998041021A1 (es) |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2332808B (en) * | 1997-12-19 | 2003-03-12 | Motorola Ltd | Communication system and method for transmitting a video signal |
US7257158B1 (en) | 1998-05-18 | 2007-08-14 | Kendyl A. Román | System for transmitting video images over a computer network to a remote receiver |
GB2343807A (en) * | 1998-11-11 | 2000-05-17 | Isis Innovation | Retrieving video data specified by parameters from a remote source |
US7233619B1 (en) * | 1998-12-21 | 2007-06-19 | Roman Kendyl A | Variable general purpose compression for video images (ZLN) |
US8290034B2 (en) | 1998-12-21 | 2012-10-16 | Zin Stai Pte. In, Llc | Video transmission and display including bit-wise sub-sampling video compression |
US8416847B2 (en) * | 1998-12-21 | 2013-04-09 | Zin Stai Pte. In, Llc | Separate plane compression using plurality of compression methods including ZLN and ZLD methods |
US8068544B2 (en) * | 1998-12-21 | 2011-11-29 | Zin Stai Pte. In, Llc | Compression with doppler enhancement |
US20030005428A1 (en) * | 2001-05-26 | 2003-01-02 | Roman Kendyl A. | Global media exchange |
US7671864B2 (en) * | 2000-01-14 | 2010-03-02 | Roman Kendyl A | Faster image processing |
US8170095B2 (en) * | 1998-12-21 | 2012-05-01 | Zin Stai Pte. In, Llc | Faster image processing |
US6415188B1 (en) * | 1998-12-23 | 2002-07-02 | Dennis Sunga Fernandez | Method and apparatus for multi-sensor processing |
US7016417B1 (en) * | 1998-12-23 | 2006-03-21 | Kendyl A. Roman | General purpose compression for video images (RHN) |
FI106998B (fi) * | 1999-01-15 | 2001-05-15 | Nokia Mobile Phones Ltd | Bittinopeuden ohjaus multimedialaitteessa |
GB9909606D0 (en) * | 1999-04-26 | 1999-06-23 | Telemedia Systems Ltd | Networked delivery of profiled media files to clients |
US8004572B2 (en) * | 1999-05-17 | 2011-08-23 | Zin Stai Pte. In, Llc | System for transmitting a video stream over a computer network to a remote receiver |
DE10035109B4 (de) * | 1999-07-20 | 2012-03-08 | Lg Information & Communications, Ltd. | Terminal und Verfahren zum Transportieren von Standbildern |
JP4697500B2 (ja) * | 1999-08-09 | 2011-06-08 | ソニー株式会社 | 送信装置および送信方法、受信装置および受信方法、並びに記録媒体 |
JP4331835B2 (ja) * | 1999-09-22 | 2009-09-16 | パナソニック株式会社 | 画像データ伝送方法 |
US6803931B1 (en) * | 1999-11-04 | 2004-10-12 | Kendyl A. Roman | Graphical user interface including zoom control box representing image and magnification of displayed image |
US7191462B1 (en) | 1999-11-08 | 2007-03-13 | Kendyl A. Román | System for transmitting video images over a computer network to a remote receiver |
WO2001067771A2 (de) * | 2000-03-08 | 2001-09-13 | Siemens Aktiengesellschaft | Verfahren zum bearbeiten eines digitalisierten bildes und bildkommunikationssystem |
US6765599B2 (en) * | 2000-05-30 | 2004-07-20 | Sanyo Electric Co., Ltd. | Image signal transmission apparatus |
WO2002005558A1 (fr) * | 2000-07-10 | 2002-01-17 | Hitachi, Ltd. | Terminal de communication multimedia |
JP4032210B2 (ja) * | 2001-01-30 | 2008-01-16 | 富士フイルム株式会社 | 携帯機器、画像送信システム、画像送信方法 |
JP2002300581A (ja) * | 2001-03-29 | 2002-10-11 | Matsushita Electric Ind Co Ltd | 映像符号化装置、及び映像符号化プログラム |
CA2344930C (en) | 2001-04-23 | 2007-04-17 | Leitch Technology International Inc. | Data monitoring system |
AU2003237579A1 (en) * | 2002-07-05 | 2004-01-23 | Aspectus Ltd | A method and system for effectively performing event detection in a large number of concurrent image sequences |
US7176957B2 (en) * | 2004-05-25 | 2007-02-13 | Seiko Epson Corporation | Local video loopback method for a multi-participant conference system using a back-channel video interface |
US20060171603A1 (en) * | 2005-01-31 | 2006-08-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Resampling of transformed shared image techniques |
US8606383B2 (en) | 2005-01-31 | 2013-12-10 | The Invention Science Fund I, Llc | Audio sharing |
US20060170956A1 (en) | 2005-01-31 | 2006-08-03 | Jung Edward K | Shared image devices |
US20060174203A1 (en) | 2005-01-31 | 2006-08-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Viewfinder for shared image device |
US20060187228A1 (en) * | 2005-01-31 | 2006-08-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Sharing including peripheral shared image device |
US9082456B2 (en) | 2005-01-31 | 2015-07-14 | The Invention Science Fund I Llc | Shared image device designation |
US20060285150A1 (en) * | 2005-01-31 | 2006-12-21 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Regional proximity for shared image device(s) |
US20060221197A1 (en) * | 2005-03-30 | 2006-10-05 | Jung Edward K | Image transformation estimator of an imaging device |
US7920169B2 (en) | 2005-01-31 | 2011-04-05 | Invention Science Fund I, Llc | Proximity of shared image devices |
US9489717B2 (en) | 2005-01-31 | 2016-11-08 | Invention Science Fund I, Llc | Shared image device |
US9124729B2 (en) | 2005-01-31 | 2015-09-01 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
US20060190968A1 (en) * | 2005-01-31 | 2006-08-24 | Searete Llc, A Limited Corporation Of The State Of The State Of Delaware | Sharing between shared audio devices |
US9325781B2 (en) | 2005-01-31 | 2016-04-26 | Invention Science Fund I, Llc | Audio sharing |
US7876357B2 (en) * | 2005-01-31 | 2011-01-25 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
US9910341B2 (en) | 2005-01-31 | 2018-03-06 | The Invention Science Fund I, Llc | Shared image device designation |
US8902320B2 (en) | 2005-01-31 | 2014-12-02 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
JP2008533885A (ja) * | 2005-03-15 | 2008-08-21 | ネロ アーゲー | 画像データストリームを生成するための装置および方法ならびに画像データストリームを処理するための装置および方法 |
EP1703734A1 (en) * | 2005-03-15 | 2006-09-20 | Nero AG | Apparatus and method for producing and processing a picture data stream |
US20070098348A1 (en) * | 2005-10-31 | 2007-05-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Degradation/preservation management of captured data |
US9076208B2 (en) * | 2006-02-28 | 2015-07-07 | The Invention Science Fund I, Llc | Imagery processing |
US7782365B2 (en) | 2005-06-02 | 2010-08-24 | Searete Llc | Enhanced video/still image correlation |
US8233042B2 (en) * | 2005-10-31 | 2012-07-31 | The Invention Science Fund I, Llc | Preservation and/or degradation of a video/audio data stream |
US9167195B2 (en) * | 2005-10-31 | 2015-10-20 | Invention Science Fund I, Llc | Preservation/degradation of video/audio aspects of a data stream |
US8964054B2 (en) | 2006-08-18 | 2015-02-24 | The Invention Science Fund I, Llc | Capturing selected image objects |
US10003762B2 (en) | 2005-04-26 | 2018-06-19 | Invention Science Fund I, Llc | Shared image devices |
US8681225B2 (en) | 2005-06-02 | 2014-03-25 | Royce A. Levien | Storage access technique for captured data |
US9451200B2 (en) | 2005-06-02 | 2016-09-20 | Invention Science Fund I, Llc | Storage access technique for captured data |
US9191611B2 (en) * | 2005-06-02 | 2015-11-17 | Invention Science Fund I, Llc | Conditional alteration of a saved image |
US9819490B2 (en) | 2005-05-04 | 2017-11-14 | Invention Science Fund I, Llc | Regional proximity for shared image device(s) |
US9001215B2 (en) | 2005-06-02 | 2015-04-07 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
US8253821B2 (en) * | 2005-10-31 | 2012-08-28 | The Invention Science Fund I, Llc | Degradation/preservation management of captured data |
US9621749B2 (en) | 2005-06-02 | 2017-04-11 | Invention Science Fund I, Llc | Capturing selected image objects |
US20070222865A1 (en) | 2006-03-15 | 2007-09-27 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Enhanced video/still image correlation |
US8072501B2 (en) * | 2005-10-31 | 2011-12-06 | The Invention Science Fund I, Llc | Preservation and/or degradation of a video/audio data stream |
US7872675B2 (en) * | 2005-06-02 | 2011-01-18 | The Invention Science Fund I, Llc | Saved-image management |
US9093121B2 (en) | 2006-02-28 | 2015-07-28 | The Invention Science Fund I, Llc | Data management of an audio data stream |
US9967424B2 (en) | 2005-06-02 | 2018-05-08 | Invention Science Fund I, Llc | Data storage usage protocol |
US9942511B2 (en) | 2005-10-31 | 2018-04-10 | Invention Science Fund I, Llc | Preservation/degradation of video/audio aspects of a data stream |
US20060274153A1 (en) * | 2005-06-02 | 2006-12-07 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Third party storage of captured data |
US20070120980A1 (en) * | 2005-10-31 | 2007-05-31 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Preservation/degradation of video/audio aspects of a data stream |
US20070203595A1 (en) * | 2006-02-28 | 2007-08-30 | Searete Llc, A Limited Liability Corporation | Data management of an audio data stream |
JP2007166524A (ja) * | 2005-12-16 | 2007-06-28 | Toshiba Corp | 再生装置 |
US7634540B2 (en) * | 2006-10-12 | 2009-12-15 | Seiko Epson Corporation | Presenter view control system and method |
CN101600029B (zh) * | 2008-06-06 | 2013-05-08 | 博通集成电路(上海)有限公司 | 背景噪声降低系统及方法 |
CN101998102A (zh) * | 2009-08-24 | 2011-03-30 | 中兴通讯股份有限公司 | 一种控制移动可视电话视频质量的方法和移动可视电话 |
US8743953B2 (en) * | 2010-10-22 | 2014-06-03 | Motorola Solutions, Inc. | Method and apparatus for adjusting video compression parameters for encoding source video based on a viewer's environment |
US9681111B1 (en) | 2015-10-22 | 2017-06-13 | Gopro, Inc. | Apparatus and methods for embedding metadata into video stream |
US9667859B1 (en) * | 2015-12-28 | 2017-05-30 | Gopro, Inc. | Systems and methods for determining preferences for capture settings of an image capturing device |
US9922387B1 (en) | 2016-01-19 | 2018-03-20 | Gopro, Inc. | Storage of metadata and images |
US9967457B1 (en) | 2016-01-22 | 2018-05-08 | Gopro, Inc. | Systems and methods for determining preferences for capture settings of an image capturing device |
US9665098B1 (en) | 2016-02-16 | 2017-05-30 | Gopro, Inc. | Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle |
US9973792B1 (en) | 2016-10-27 | 2018-05-15 | Gopro, Inc. | Systems and methods for presenting visual information during presentation of a video segment |
US10187607B1 (en) | 2017-04-04 | 2019-01-22 | Gopro, Inc. | Systems and methods for using a variable capture frame rate for video capture |
CN116456061B (zh) * | 2023-06-15 | 2023-09-08 | 四川三思德科技有限公司 | 基于动态目标检测的智能社区监控管理方法、系统及介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4004084A (en) * | 1976-03-03 | 1977-01-18 | Bell Telephone Laboratories, Incorporated | Video conferencing system using spatial reduction and temporal resolution |
JP2828324B2 (ja) * | 1990-06-21 | 1998-11-25 | 富士通株式会社 | 遠隔監視システム |
JP3222456B2 (ja) * | 1990-07-30 | 2001-10-29 | 株式会社東芝 | 映像監視システム、送信装置、受信装置、および映像監視方法 |
JPH0564199A (ja) * | 1991-08-29 | 1993-03-12 | Pioneer Electron Corp | 画像監視装置 |
JPH05207460A (ja) * | 1992-01-30 | 1993-08-13 | Hitachi Ltd | 画像信号の多重化伝送装置及びシステム |
US5479206A (en) * | 1992-02-04 | 1995-12-26 | Fuji Photo Film Co., Ltd. | Imaging system, electronic camera, computer system for controlling said electronic camera, and methods of controlling same |
US5475421A (en) * | 1992-06-03 | 1995-12-12 | Digital Equipment Corporation | Video data scaling for video teleconferencing workstations communicating by digital data network |
WO1994003014A1 (en) | 1992-07-24 | 1994-02-03 | Koz Mark C | Low power video security monitoring system |
US5621429A (en) * | 1993-03-16 | 1997-04-15 | Hitachi, Ltd. | Video data display controlling method and video data display processing system |
AU7172194A (en) | 1993-06-23 | 1995-01-17 | David H. Feinberg | An integrated telephone, intercom, security and control system for a multi-unit building |
US5432871A (en) * | 1993-08-04 | 1995-07-11 | Universal Systems & Technology, Inc. | Systems and methods for interactive image data acquisition and compression |
JPH0779424A (ja) * | 1993-09-06 | 1995-03-20 | Hitachi Ltd | 多地点映像通信装置 |
US5548346A (en) * | 1993-11-05 | 1996-08-20 | Hitachi, Ltd. | Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method |
US5652849A (en) * | 1995-03-16 | 1997-07-29 | Regents Of The University Of Michigan | Apparatus and method for remote control using a visual information stream |
DE69608264T2 (de) * | 1995-03-24 | 2000-09-28 | Ppt Vision, Inc. | Maschinensichtsteuersystem |
US5896128A (en) * | 1995-05-03 | 1999-04-20 | Bell Communications Research, Inc. | System and method for associating multimedia objects for use in a video conferencing system |
US5926209A (en) * | 1995-07-14 | 1999-07-20 | Sensormatic Electronics Corporation | Video camera apparatus with compression system responsive to video camera adjustment |
US5850472A (en) * | 1995-09-22 | 1998-12-15 | Color And Appearance Technology, Inc. | Colorimetric imaging system for measuring color and appearance |
-
1997
- 1997-03-12 US US08/823,656 patent/US6384862B1/en not_active Expired - Lifetime
-
1998
- 1998-03-05 JP JP53950398A patent/JP2001514825A/ja not_active Ceased
- 1998-03-05 ES ES03012129T patent/ES2357556T3/es not_active Expired - Lifetime
- 1998-03-05 EP EP98909905A patent/EP0966838A1/en not_active Ceased
- 1998-03-05 DE DE69842124T patent/DE69842124D1/de not_active Expired - Lifetime
- 1998-03-05 CA CA002283215A patent/CA2283215C/en not_active Expired - Lifetime
- 1998-03-05 WO PCT/SE1998/000394 patent/WO1998041021A1/en not_active Application Discontinuation
- 1998-03-05 EP EP03012129A patent/EP1339235B1/en not_active Expired - Lifetime
- 1998-03-05 AU AU64272/98A patent/AU6427298A/en not_active Abandoned
- 1998-03-12 TW TW087103663A patent/TW453113B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
DE69842124D1 (de) | 2011-03-17 |
EP1339235A2 (en) | 2003-08-27 |
AU6427298A (en) | 1998-09-29 |
WO1998041021A1 (en) | 1998-09-17 |
EP1339235A3 (en) | 2004-09-22 |
JP2001514825A (ja) | 2001-09-11 |
US6384862B1 (en) | 2002-05-07 |
TW453113B (en) | 2001-09-01 |
CA2283215A1 (en) | 1998-09-17 |
EP1339235B1 (en) | 2011-02-02 |
EP0966838A1 (en) | 1999-12-29 |
CA2283215C (en) | 2005-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2357556T3 (es) | Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. | |
EP0968606B1 (en) | Method for still picture transmission and display | |
US7646736B2 (en) | Video conferencing system | |
US6535240B2 (en) | Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels | |
KR0180543B1 (ko) | 화상통신장치 | |
EP0731608B1 (en) | Image encoder and decoder with area selection | |
KR100954609B1 (ko) | 비디오 부호화 시스템에서 양자화 변수들을 표시하는 방법및 장치 | |
JPH0250690A (ja) | 画像通信装置 | |
AU2002355089A1 (en) | Method and apparatus for continuously receiving frames from a pluarlity of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels | |
JPH07288789A (ja) | 知的符号化装置及び画像通信装置 | |
KR20040047524A (ko) | 영상 신호 기록 및 송신 장치 | |
JPS62108686A (ja) | 受信側符号化制御による画像信号伝送制御方式 | |
JPH0654310A (ja) | 動画像伝送装置 | |
JP2006074114A (ja) | 画像処理装置及び撮像装置 | |
US20030222974A1 (en) | Picture transmission system | |
JP2000324474A (ja) | カメラ画像伝送方法及びカメラ画像伝送システム | |
JP2007088771A (ja) | 映像圧縮送信装置および映像圧縮方法 | |
JP2001346207A (ja) | 画像情報変換装置及び方法 | |
JPH01289388A (ja) | 動画像信号の符号化復号化方式 | |
JP2002016921A (ja) | 動画像符号化装置および動画像復号化装置 | |
JPH0823527A (ja) | テレビ電話システム | |
JP2002010266A (ja) | 画像情報変換装置及び方法 | |
JPH10243403A (ja) | 動画像符号化装置及び動画像復号化装置 | |
JPS62199185A (ja) | 図形表示装置 | |
JP2001339720A (ja) | 画像情報変換装置及び方法 |