[go: up one dir, main page]

MXPA02005288A - Procesador de imagen, metodo de procesamiento de imagen, medio de registro, programa de computadora y dispositivo esmi conductor. - Google Patents

Procesador de imagen, metodo de procesamiento de imagen, medio de registro, programa de computadora y dispositivo esmi conductor.

Info

Publication number
MXPA02005288A
MXPA02005288A MXPA02005288A MXPA02005288A MXPA02005288A MX PA02005288 A MXPA02005288 A MX PA02005288A MX PA02005288 A MXPA02005288 A MX PA02005288A MX PA02005288 A MXPA02005288 A MX PA02005288A MX PA02005288 A MXPA02005288 A MX PA02005288A
Authority
MX
Mexico
Prior art keywords
image
reflected
moving
target
movement
Prior art date
Application number
MXPA02005288A
Other languages
English (en)
Inventor
Ohba Akio
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of MXPA02005288A publication Critical patent/MXPA02005288A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

La presente invencion proporciona un procesador de imagen 5 para utilizar imagenes que han sido tomadas por un aparato recolector de imagen u otros como una interfaz de entrada para registrar comandos. La presente invencion proporciona un procesador de imagen que incluye medios de captura de imagen para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento, medios generadores de imagen para generar una imagen objeto que representa un objeto predeterminado, de acuerdo con un movimiento del objetivo que esta incluido en la imagen en movimiento reflejada capturada por los medios de captura de imagen, y medios de control para combinar la imagen objeto generada por los medios generadores de imagen con la imagen en movimiento capturada y reflejada y exhibir la imagen combinada sobre un dispositivo de pantalla previamente determinado.

Description

PROCESADOR DE IMAGEN. MÉTODO DE PROCESAMIENTO DE IMAGEN, MEDIO DE REGISTRO, PROGRAMA DE COMPUTADORA Y DISPOSITIVO SEMI CONDUCTOR.
Campo Técnico.
La presente invención se refiere a una tecnología de procesamiento de imagen para hacer uso de imágenes que han sido tomadas por un aparato recolector de imágenes como una cámara de video como interfaz de entrada para. comandos y otros.
Técnica Anterior.
Los teclados, ratones y controladores frecuentemente son utilizados como dispositivos de entrada para computadoras, máquinas de juego de video y otros. Un operador registra un comando o comandos deseados a través de la manipulación de un dispositivo de entrada lo que ocasiona que una computadora ejecute el procesamiento de acuerdo con el o los comandos registrados. Después, el operador ve las imágenes y / o escucha los sonidos obtenidos como resultados de procesamiento a través de un dispositivo de pantalla y / o altavoz. El operador registra los comandos operando varios botones o teclas provistas sobre el dispositivo de entrada en tanto que observa un cursor mostrado sobre un dispositivo de pantalla.
Dichas operaciones dependen en gran medida de las experiencias de operación del operador. Por ejemplo, para aquellos que nunca han tocado antes un teclado, el registrar un comando deseado utilizando un teclado es muy problemático y consumidor de tiempo, y están propensos a introducir errores debido a tecleos erróneos. Por esta razón, existe la demanda de una interfaz máquina-hombre ue permite la fácil operación por parte del operador. Por otra parte, con el avance de las tecnologías de multimedia, la gente en los hogares puede ahora disfrutar fácilmente la transferencia de imágenes tomadas con una cámara de video a una computadora u otros, editarlas y exhibirlas sobre un dispositivo de pantalla. Dichas tecnologías también son utilizadas para la autenticación personal mediante el análisis de imágenes recolectadas de un cuerpo físico tal como una cara, extrayendo características claves de la misma para identificar al individuo. De manera convencional, dichas imágenes tomadas se utilizan como información que va a ser procesada por una computadora para edición o análisis. Sin embargo, las imágenes tomadas no han sido utilizadas hasta ahora para un propósito de registrar comandos a una computadora. Es un objeto de la presente invención proporcionar una tecnología de procesamiento de imágenes para utilizar las imágenes que han sido tomadas por un aparato recolector de imagen u otros como una interfaz de entrada que permita que un usuario registre comandos.
Breve Descripción de la Invención.
Un procesador de imagen de acuerdo con la presente invención comprende medios de captura de imagen para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento, medios generadores de imagen para generar una imagen objeto que representa un objeto predeterminado, de acuerdo con un movimiento de objetivo que está incluido es la imagen en movimiento reflejada capturada por los medios de captura de imagen, y medios de control para combinar la imagen objeto generada por los medios generadores de imagen con la imagen en movimiento reflejada capturada y exhibir la imagen combinada sobre un dispositivo de pantalla predeterminado. El "objetivo" se refiere a una parte resaltada de un objeto (por ejemplo, personas u objetos) cuya imagen es tomada por un aparato recolector de imagen que suministra la imagen hacia un procesador de imagen. Otro procesador de imagen de acuerdo con la presente invención comprende medios de captura de imagen para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento, medios detectores para detectar el objetivo y un componente en movimiento del mismo a través de las características de imagen de detección entre una imagen en movimiento reflejada actual y una imagen en movimiento reflejada precedente inmediatamente, medios generadores de imagen para generar una imagen objeto que representa un objeto predeterminado de manera que la imagen objeto varía de acuerdo con el componente de movimiento del objetivo detectado por los medios detectores, y medios de control para combinar la imagen objeto generada por los medios generadores de imagen con la imagen en movimiento reflejada y capturada y exhibir la imagen combinada sobre un dispositivo de pantalla predeterminado. Esos procesadores de imagen generan imágenes objeto de acuerdo con los movimientos de los objetivos que están incluidos en la imagen en movimiento reflejada. De manera más especifica, el movimiento, el color y la forma de la imagen objeto que se van a exhibir sobre el dispositivo de pantalla se determinan, y si existe una pluralidad de imágenes objeto, se determina también que imagen objeto debe ser exhibida, de acuerdo con el movimiento del objetivo. Por ejemplo, si el objetivo es el operador, el objeto es determinado de acuerdo con el movimiento del operador. Por tanto, la imagen en movimiento reflejada está disponible como un tipo de interfaz de entrada. En esos procesadores de imagen, los medios generadores de imagen pueden generar la imagen objeto de manera que la imagen objeto sigue un movimiento del objetivo detectado. Los procesadores de imagen pueden comprender además medios para hacer preparaciones para ejecutar el procesamiento requerido en base a la imagen objeto generada de acuerdo con el componente de movimiento del objetivo. Los procesadores de imagen pueden comprender además medios para comparar una imagen combinada obtenida mediante la combinación de la imagen objeto generada por los medios generadores de imagen y la imagen en movimiento reflejada actual, con una imagen de plantilla que es la imagen del objetivo incluida en la imagen en movimiento reflejada precedente inmediatamente, que detecta la parte de la imagen combinada cuya característica de imagen es más similar a la imagen de plantilla, y hacer preparaciones para ejecutar el procesamiento requerido en base a la imagen objeto cuando la imagen de la parte de la imagen combinada detectada incluye la imagen objeto. Mediante la asociación de la imagen objeto con el proceso predeterminado y que comprende además medios para ejecutar el procesamiento que está asociado con la imagen objeto cuando el componente de movimiento del objetivo detectado por los medios detectores satisface una condición predeterminada, es posible ejecutar el procesamiento de acuerdo con el movimiento del objetivo. La imagen en movimiento reflejada puede incluir una pluralidad de objetivos. Los medios detectores pueden estar configurados para detectar el componente de movimiento de cada uno de la pluralidad de objetivos, y detectar un objetivo en base a los componentes en movimiento detectados de la pluralidad de objetivos. Los medios generadores de imagen pueden estar configurados para cambiar la imagen objeto de acuerdo con el componente de movimiento de un objetivo detectado por los medios detectores. La presente invención proporciona además el siguiente método de procesamiento de imagen. Este método de procesamiento de imagen comprende las etapas de capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento dentro del procesador de imagen; el procesador de imagen que genera una imagen objeto que representa un objeto predeterminado de acuerdo con un movimiento del objetivo incluido en la imagen en movimiento reflejada y capturada,, y combinar la imagen objeto generada con la imagen en movimiento reflejada capturada para exhibir la imagen combinada sobre un dispositivo de pantalla predeterminado. La presente invención proporciona también el siguiente programa de computadora. Este programa de computadora ocasiona que una computadora conectada a un dispositivo de pantalla ejecute el procesamiento de capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento, generar una imagen objeto que representa un objeto predeterminado de acuerdo con un movimiento del objetivo incluido en la imagen en movimiento reflejada y capturada y combinar la imagen objeto generada con la imagen en movimiento reflejada y capturada para exhibir la imagen combinada sobre el dispositivo de pantalla. La presente invención proporciona también el siguiente dispositivo semi conductor. Este dispositivo semi conductor está incorporado en un aparato montado en una computadora conectada a un dispositivo de pantalla, el dispositivo semi conductor que ocasiona que la computadora forme las funciones de los medios para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento, medios para generar una imagen objeto que representa un objeto predeterminado de acuerdo con un movimiento del objetivo incluido en la imagen en movimiento reflejada y capturada, y medios para combinar la imagen objeto generada con la imagen en movimiento reflejada y capturada para exhibir la imagen combinada sobre el dispositivo de pantalla.
Breve Descripción de ios Dibujos.
La figura 1 es un diagrama de configuración general de un sistema de procesamiento de imagen al cual se aplica la presente invención; La figura 2 es un diagrama de configuración de un procesador de imagen de acuerdo con una modalidad de la presente invención; La figura 3 es un diagrama de bloque funcional del procesador de imagen de acuerdo con la modalidad de la presente invención; La figura 4 es un diagrama de flujo que muestra un procedimiento de procesamiento de la modalidad 1; La figura 5 es un diagrama de flujo que muestra un procedimiento del procesamiento de la modalidad 1; La figura 6 ilustra una imagen combinada de acuerdo con la modalidad 1 ; La figura 7 ilustra una imagen de menú; La figura 8 es un diagrama de flujo que muestra un procedimiento de procesamiento de la modalidad 2; La figura 9 ilustra una imagen combinada de conformidad con la modalidad 2; La figura 10 es una vista para uso en la descripción de cómo se hace el trazo utilizando la textura recursiva; La figura 11 es un diagrama de flujo que muestra un procedimiento de procesamiento de conformidad con la modalidad 3; La figura 12 es un diagrama de flujo que muestra un procedimiento de procesamiento de la modalidad 3; y La figura 13 ilustra una imagen combinada de acuerdo con la modalidad 3.
Mejor Forma para Llevar a Cabo la Invención.
Se describe específicamente una modalidad de la presente invención con referencia a los dibujos que le acompañan. La figura 1 es una vista que muestra un ejemplo de configuración de un sistema de procesamiento de imagen al cual se aplica la presente invención. Ese sistema de procesamiento de imagen toma imágenes de un operador que está sentado enfrente de un dispositivo de pantalla 3 utilizando una cámara de video analógica o digital 1, captura las imágenes en movimiento así obtenidas dentro de un procesador de imagen 2 consecutivamente en series de tiempo para generar imágenes en movimiento reflejadas, y combina una imagen objeto que representa un objeto tal como un menú y un cursor con una porción de la imagen en movimiento reflejada donde un objeto resaltado tal como un ojo o una mano del operador (en lo sucesivo el objeto remarcado será referido como un "objetivo") está colocado, para generar una imagen combinada (esto, también, se convierte en una imagen en movimiento) y exhibe la imagen combinada sobre el dispositivo de pantalla 3 en tiempo real. Una imagen en movimiento reflejada puede ser generada reflejando (inversión de imagen derecha / izquierda) mediante el procesador de imagen 2 la imagen en movimiento capturada por la cámara de video 1. Alternativamente, puede colocarse un espejo enfrente de la cámara de video 1, y una fotografía de una imagen en movimiento sobre la superficie del espejo que refleja el operador puede tomarse mediante la cámara de video 1 para formar una imagen de movimiento reflejada. En cualquier caso, una imagen combinada de la cual el modo de exhibición varía en tiempo real de acuerdo con el movimiento del objetivo, se exhibe sobre el dispositivo de pantalla 3. El procesador de imagen 2 es implementado mediante una computadora que proporciona las funciones requeridas utilizando un programa de cómputo. Como una configuración de hardware se muestra a manera de ejemplo en la figura 12, la computadora de esta modalidad tiene dos buses, un bus principal B1 y un sub bus B2 al cual están conectadas una pluralidad de dispositivos semi conductores que tienen cada uno funciones especificas. Esos buses B1 y B2 están conectados a y desconectados uno de otro a través de una interfaz de bus INT. El bus principal B1 está conectado a un CPU principal 10 el cual es un dispositivo semi conductor principal, una memoria principal 11 que está constituida de una RAM, un DMAC (controlador de acceso de memoria directo) 12, y un descodificador MPEG (grupos de expertos de imagen en movimiento) (MDEC) 13 y una unidad de procesamiento gráfico (en lo sucesivo, referido como "GPU") 14, que incluye una memoria de estructura 15 que sirve como una memoria de extracción. La GPU 14 está conectada al CRTC (controlador CRTC) 16 para generar una señal de video que permite que los datos en la memoria de estructura 15 sean exhibidos en el dispositivo de pantalla 3. A la activación de una computadora, el CPU 10 principal lee un programa de inicialización desde una ROM 23 sobre el sub bus B2 a través de la interfaz de bus INT y corre el programa de inicialización para arrancar un sistema operativo. También controla una unidad de medios 27, lee un programa de aplicación y datos desde un medio 28 cargado en esta unidad de medios 27 y los almacena en la memoria principal 11. El CPU principal 10 ejecuta además el procesamiento de geometría (procesamiento de cálculo del valor de coordenadas), el cual es un tema de establecimiento de formas y movimiento de los objetos asociados, para varios datos leídos desde el medio 28, por ejemplo, datos de objeto tridimensional (valores coordinados de los vértices (punto representativo) de un polígono, etc) conformado de una pluralidad de gráficos básicos (polígonos) y genera una lista de exhibición que contiene la información de definición de polígono procesado de geometría (especificaciones de la forma de un polígono utilizado, su posición de trazo, tipo, color o textura, etc de los componentes del polígono). El GPU 14 es un dispositivo semi conductor que retiene el contexto de trazo (datos de trazo, que incluyen componentes de polígonos). Tiene las funciones de leer un contexto de trazo necesario de acuerdo con la lista de exhibición enviada desde el CPU principal 10 para ejecutar el procesamiento de abastecimiento (procesamiento de trazo) y el trazo de polígono sobre la memoria de estructura 15. Ya que la memoria de estructura 15 puede también ser utilizada como una memoria de textura, cualquier imagen de píxel almacenada sobre la memoria de estructura puede ser pegada como una textura sobre el polígono que se va a trazar. El DMAC principal 12 es un dispositivo semi conductor que controla no solamente la transferencia DMA hacia cada circuito conectado al bus principal B1, sino también la transferencia DMA hacia cada circuito conectado al sub bus B2 de acuerdo con la condición de la interfaz de bus INT. El NBS 13 es u dispositivo semi conductor que opera en paralelo con el CPU principal 10 para descomprimir los datos comprimidos, por ejemplo, en el formato MEPG (Grupos de Expertos de Imagen en Movimiento) o JPEG (Grupo de Expertos Fotográficos Unidos). El sub bus B2 está conectado a un sub CPU 20 que incluye un microprocesador, una sub memoria 21 formada de una RAM, una sub DMAC 22, la ROM 23 sobre la cual los programas de control tales como el sistema operativo están almacenados, un dispositivo semi conductor de procesamiento de sonido (SPU: Unidad de Procesamiento de Sonido) 24 que lee los datos de sonido almacenados en una memoria de sonido 25 y produce los mismos como una salida de audio, una unidad de control de comunicación (ATM) 26 que transmite / recibe la información hacia / desde un dispositivo externo por medio de una red (no mostrada), la unidad de medios 27 dentro de la cual el medio 28 tal como un CD-ROM y un DVD-ROM están cargados, y un dispositivo de entrada 31. El sub CPU 20 controla varias operaciones de acuerdo con el programa de control almacenado en la ROM 23. El sub DMCA 22 es un dispositivo semi conductor que controla las operaciones tales como la transferencia DMA hacia cada circuito conectado al sub bus B2 solamente cuando la interfaz de bus INT desconecta el bus principal B1 del sub bus B2. La unidad de entrada 31 comprende una terminal de conexión 32 a través de la cual una señal de entrada desde un dispositivo de operación 35 es recibida, una terminal de conexión 33 a través de la cual una señal de imagen desde una cámara de video 1 es recibida, y una terminal de conexión 34 a través de la cual se recibe una señal de sonido desde la cámara de video . Debe observarse que la descripción en esta especificación está hecha solamente acerca de las imágenes, y no acerca del sonido, por conveniencia. En la computadora que tiene la configuración antes mencionada, el CPU principal 10, el sub CPU 20 y la GPU 14 leen y ejecutan un programa de computadora predeterminada almacenado en el medio de registro tal como la ROM 23 y el medio 28 para formar bloques funcionales que son requeridos para operar como el procesador de imagen: un dispositivo de entrada de imagen 101, un inversor de imagen 102, un dispositivo de almacenamiento de datos objeto 103, un dispositivo de entrada de datos de objeto 104, un controlador de objeto 105, un generador de imagen de sobre posición 106, un detector de valor de diferencia 107 y un controlador de pantalla 108. En la relación con el hardware mostrado en la figura 1, el dispositivo de entrada de imagen 101 está formado del dispositivo de entrada 31 y el sub CPU 20 que controla la operación del mismo. El inversor de imagen 102, el dispositivo de entrada de datos de objeto 104, el controlador de objeto 105 y el detector de valor de diferencia 107 están formados del CPU principal 10. El generador de imagen de sobre posición 106 está formado de la GPU 14. El controlador de pantalla 108 está formado de la GPU 14 y el CRTC 16 que están cooperando entre sí. El dispositivo de almacenamiento de datos objeto 103 se forma en un área de memoria, tal como la memoria principal 11, que es accesible al CPU principal 10.
El dispositivo de entrada de imagen 101 recibe imágenes tomadas por la cámara de video 1 a través de la terminal de conexión 33 del dispositivo de entrada 31. En el caso donde la imagen entrante es una imagen digital, el dispositivo de entrada de imagen 101 recibe la imagen como está. En el caso donde la imagen entrante es una imagen analógica, el dispositivo de entrada de imagen 101 recibe la imagen después de la conversión A / D de la misma. El inversor de imagen 102 ejecuta el procesamiento de reflejo, es decir, la inversión derecha / izquierda sobre la imagen recibida por el dispositivo de entrada de imagen 101, para formar una imagen en movimiento reflejada. El dispositivo de almacenamiento de datos objeto 103 retiene los datos objeto junto con los datos de identificación de los mismos, los datos objeto que son para crear un objeto tal como un menú (incluyendo un sub menú), un "matchstick", o un cursor. El dispositivo de entrada de datos objeto 104 recibe los datos objeto necesarios desde el dispositivo de almacenamiento de datos objeto 103 y los envía hacia el controlador objeto 105. Los datos objeto que van a ser recibidos son instruidos por el controlador objeto 105. El controlador objeto 105 genera una imagen objeto en base a los datos objeto incorporados desde el dispositivo de entrada de datos objeto 104 de acuerdo con la instrucción. En particular, el controlador objeto 105 determina las condiciones de exhibición para un objeto determinado en base al valor de diferencia enviado desde e! detector de valor de diferencia 107 y genera una imagen objeto para realizar las condiciones de exhibición. El valor de diferencia se describirá posteriormente. El generador de imagen de sobre posición 106 traza una imagen combinada en la memoria de estructura 15, la imagen combinada que se obtiene mediante la sobre posición de la imagen en movimiento reflejada suministrada desde el inversor de imagen 102 sobre la imagen de objeto generada por el controlador de objeto 105. Debe observarse que una imagen objeto puede exhibirse sobre una imagen en movimiento reflejada por medio del procesamiento de imposición en vez del procesamiento de sobre posición de la imagen objeto para crear una imagen combinada. El detector de valor de diferencia 107 compara, en una base de cuadro por cuadro, una característica de imagen de la imagen en movimiento reflejada de la imagen combinada generada por el generador de imagen de sobre posición 106 y deriva un valor de diferencia de las características de imagen entre las imágenes en movimiento reflejadas de los cuadros precedentes y siguientes. Además, el detector de valor de diferencia 107 genera una imagen de diferencia entre las imágenes en movimiento reflejadas de los cuadros precedentes y siguientes según se requiera. El valor de diferencia de las características de imagen es un valor que representa cuantitativamente una variación por cuadro del componente de movimiento del objetivo incluido en la imagen en movimiento reflejada. Por ejemplo, el valor de diferencia indica una distancia que el objetivo tiene que moverse en la imagen en movimiento reflejada o un área entre el área después del movimiento y el área antes del movimiento. Cuando una pluralidad de objetivos están incluidos dentro de una imagen en movimiento reflejada, los valores de diferencia de las características de imagen representan variaciones en movimiento de los objetivos individuales. Por lo tanto, es posible calcular cuantitativamente una variación en movimiento de cada objetivo por medio del cálculo de este valor de diferencia. La imagen de diferencia es una imagen que representa una variación en movimiento por cuadro de cada objetivo incluido en la imagen en movimiento reflejada en un punto de tiempo determinado. Por ejemplo, cuando una posición de un objetivo se mueve entre dos imágenes en movimiento reflejadas, la imagen de diferencia es una imagen conformada de la imagen del objetivo antes del movimiento y la imagen del objetivo después del movimiento. A fin de obtener el valor de diferencia y la imagen de diferencia, el detector de valor de diferencia 107 almacena en la memoria principal una cierta imagen en movimiento reflejada como una "imagen de referencia" con relación a las imágenes en movimiento reflejadas de los otros cuadros. La imagen en movimiento reflejada que se va a almacenar puede ser una imagen en movimiento reflejada completa para un cuadro. Alternativamente, puede ser una imagen en movimiento reflejada que es solamente una parte del objetivo debido a que todo lo que se requiere es hacer posible la obtención de un valor de diferencia en las características de imagen. En la siguiente descripción, siempre que deba hacerse una distinción entre un área del objetivo y el resto del área de la imagen, dicha área del objetivo se llamará "imagen de plantilla". El valor de diferencia detectado por el detector de valor de diferencia 107 es enviado al controlador de objeto 105 y utilizado para controlar los movimientos de las imágenes objeto. El controlador de pantalla 108 convierte la imagen combinada generada por el generador de imagen de sobre posición 106 a una señal de video y la suministra hacia el dispositivo de pantalla 3. El dispositivo de pantalla 3 exhibe la imagen combinada (imagen en movimiento) sobre una pantalla utilizando esta señal de video. <Método de procesamiento de imagen> A continuación, se describe una modalidad del método de procesamiento de imagen llevado a cabo utilizando el sistema de procesamiento de imagen antes mencionado. [Modalidad 1] Se asume que el procesador de imagen 2 produce sobre el dispositivo de pantalla 3 una imagen combinada que consta de una imagen en movimiento reflejada de un operador que fue tomada por la cámara de video 1 y que se sometió a reflejo, con una imagen de menú como ejemplo de una imagen objeto sobre puesta, como se muestra en la figura 6. Como un objetivo, es posible seleccionar cualquiera de los diferentes objetos tales como los ojos, boca, y manos del operador. Aquí, se hace la descripción en conjunción con un caso, en la imagen combinada, donde la mano del operador corresponde al objetivo y las instrucciones están designadas con la imagen de menú mediante la detección de la cantidad de movimiento de la mano en el área en la cual se exhibe la imagen de menú. La imagen de menú tiene una estructura jerárquica como se muestra en la figura 7. Cuando el operador selecciona "menú" en la capa superior, una imagen descendente resalta uno de "selectl", "select2" o "select3" en la capa inferior que se exhibe. Cuando un artículo es seleccionado desde el menú descendente, el proceso que determina la imagen (por ejemplo, "process 21", "process 22", "process 23, "process 24") del menú en la capa inferior de la imagen descendente seleccionada es exhibido. El proceso que determina la imagen es almacenado en el dispositivo de almacenamiento de datos objeto 103 de manera que está asociado con un programa para hacer que el CPU principal 10 ejecute un proceso determinado (evento). Cuando un cierto proceso que determina la imagen es seleccionado, el programa asociado con el mismo se corre para ejecutar el proceso correspondiente (evento).
Las figuras 4 y 5 muestran el procesamiento de procedimiento que se lleva a cabo mediante el procesador de imagen 2 para habilitar dichas operaciones. Primero, con referencia a la figura 4, cuando la imagen en movimiento reflejada es actualizada para aquella del cuadro subsecuente y cuando la imagen combinada generada por el generador de imagen de sobre posición 106 es actualizada en consecuencia (etapa S101), el detector de valor de diferencia 107 compara las características de imagen de la imagen en movimiento reflejada incluida en las imágenes combinadas antes y después de la actualización y calcula un valor de diferencia entre ellas (etapa S102). El valor de diferencia que es calculado aquí es un valor que representa un movimiento -de la mano del operador en el área en la cual se exhibe la imagen de menú. Los valores de diferencia calculados son registrados en la memoria principal 11 y adicionados de manera acumulativa durante un cierto periodo (etapa S103). La razón por la que los valores de diferencia son adicionados acumulativamente es que el intento del operador sobre la instrucción de operación es detectada por el procesador de imagen 2 en base a la pluralidad de movimientos de la mano del operador. Si el intento del operador sobre la instrucción de operación puede determinarse de acuerdo con la cantidad de un movimiento individual de la mano, no siempre será necesario ejecutar la adición acumulativa. El detector de valor de diferencia 107 envía el valor de diferencia (suma acumulativa) al controlador de objeto 105.
El controlador de objeto 105 determina el color de la imagen de menú de acuerdo con el valor de diferencia (suma acumulativa) recibido desde el detector de valor de diferencia 107 (etapa S104).
Por ejemplo, dos o más colores se proporcionan para la imagen de menú y el color se cambia cada vez que se detecta un movimiento de la mano. También es posible cambiar el color de transparente a semi transparente, opaco y otros. Un valor de diferencia real (suma acumulativa) es comparado con un umbral predeterminado (etapa S105). Cuando la suma acumulativa es menor que el umbral (etapa S105: N), la rutina regresa a la etapa S101, asumiendo que no es suficiente para determinar que el "menú" de la pantalla de menú ha sido seleccionado. Cuando la suma acumulativa es igual a o mayor que el umbral (etapa S105: Y), el controlador de objeto 105 determina que el "menú" de la pantalla de menú ha sido seleccionado, exhibe una imagen descendente y los reporta al detector de valor de diferencia 107 (etapa S106). Como será evidente a partir de lo anterior, cuando la suma acumulativa del movimiento de la mano del operador detectado en el área en la cual se exhibe la imagen de menú se vuelve igual a mayor que el umbral, la selección del "menú" de la imagen de menú es detectada y se exhibe la imagen descendente. El color de la imagen de menú varía de acuerdo con la suma acumulativa de la cantidad de movimiento de la mano, y por lo tanto el operador puede conocer una cantidad aproximada de un movimiento adicional de la mano requerido para seleccionar el "menú". Además, ya que el dispositivo de exhibición 3 muestra una imagen en movimiento reflejada, el operador puede ejecutar la operación antes descrita por mucho de la misma manera en la que el operador observa en un espejo, proporcionando una interfaz hombre-máquina que es fácil de operar para el operador. Volviendo a la figura 5, cuando se determina que el "menú" sobre la pantalla de menú ha sido seleccionado, es decir, el valor de diferencia (suma acumulativa) se .vuelve igual a o mayor que el umbral, el detector de valor de diferencia 107 almacena la imagen de la mano del operador (objetivo) en ese momento como una imagen de plantilla (etapa S107). Cuando se actualiza el cuadro y la imagen de menú es reemplazada en consecuencia por la imagen descendente en su capa subordinada para exhibir una imagen combinada (etapa S108), se inicia una búsqueda para una ubicación de la imagen de la mano del operador en una nueva imagen combinada. Es decir, el detector de valor de diferencia 107 busca una imagen que iguala a la imagen de plantilla a partir de la imagen combinada (etapa S109). De manera más especifica, divide la imagen combinada en áreas del mismo tamaño que la imagen de plantilla, y busca la imagen que se asemeja a la imagen de plantilla a partir de las imágenes en las áreas divididas. La imagen que más se asemeja a la imagen de plantilla en el área es, por ejemplo, cuando una suma total de valores absolutos (o cuadrado) de diferencia entre los píxeles de las imágenes comparadas se pueden expresar como una distancia, una imagen cuya distancia desde la imagen de plantilla es la mínima. Cuando se encuentra una imagen comparada (etapa S110: Y), se determina si la imagen comparada es una imagen descendente (etapa S 111 ) . Si la imagen comparada es una imagen descendente (etapa S 11 : Y), se detecta para cual área de "selectl", "select2" o "select3" pertenece la imagen descendente (etapa S112). La imagen descendente detectada es la imagen indicada y seleccionada por el operador. La información sobre la imagen descendente seleccionada es reportada a partir del detector de valor de diferencia 107 al controlador de objeto 105. · El controlador de objeto 105 lee un proceso que determina la imagen que acompaña a la imagen descendente seleccionada desde el dispositivo de almacenamiento de datos objeto 103 y genera una imagen objeto para la cual este proceso determina la imagen que está unida (etapa S113). De esta manera, el dispositivo de pantalla 3 muestra como se seleccionan los menús uno después de otro por parte del operador. En el ejemplo en la figura 7, la imagen descendente de "select2" es seleccionada a partir de la imagen de menú en la capa superior y el proceso que determina las imágenes ("process 21", "process 22", "process 23" y "process 24") que acompaña a la imagen descendente de "select2" son exhibidos.
La imagen de plantilla es renovada para cada cuadro. De manera más especifica, el detector de valor de diferencia 107 desecha la imagen de plantilla utilizada para el cuadro precedente y almacena la imagen comparada antes descrita (imagen de la mano del operador utilizada para seleccionar la imagen descendente) como una nueva imagen de plantilla (etapa S114). Después, la rutina regresa a la etapa S108 para especificar uno del proceso que determina las imágenes ("process 21", "process 22", "process 23" y "process 24") en la forma antes descrita. En la etapa S 111 , cuando la imagen comparada está fuera del área de la imagen descendente aunque es cualquiera del proceso que determina imágenes dentro del proceso que determina el área de imagen (etapa S 111 : N, S115: Y), el proceso que determina la imagen se asume que ha sido seleccionado y el contenido del proceso asociado con el mismo determinado, es decir, el programa es habilitado y el proceso que utiliza la imagen de menú es terminada (etapa S118). Cuando la imagen comparada está fuera de las áreas de la imagen descendente y el proceso que determina la imagen aunque está dentro del área de imagen de menú (etapa S111: N, S115: N, S116: Y), esto significa que el operador intenta seleccionar otra imagen descendente, y por lo tanto la rutina descarta la imagen de plantilla, almacena la imagen comparada como una nueva imagen de plantilla y regresa a la etapa S108 (etapa S117). En la etapa S110, cuando no se encuentra imagen comparada para compararse (etapa S110: N) o cuando una imagen comparada es encontrada aunque es una imagen fuera del área de la imagen de menú, el proceso con la imagen de menú se terminará en ese momento (etapa S111: N, S115: N, S116: N). Al llevar a cabo el procesamiento utilizando la imagen de menú en el procedimiento anterior, el operador puede seleccionar fácilmente el proceso con un contenido deseado en tanto que observa la imagen en movimiento reflejada de sí mismo mostrada sobre la pantalla del dispositivo de pantalla 3. Además, el operador puede registrar instrucciones mientras verifica su propio comportamiento sobre la pantalla en cualquier momento, lo cual evita que el operador se aparte de la pantalla del dispositivo de pantalla 3 como en el caso de utilizar un dispositivo de entrada tal como un teclado.
[Modalidad 2].
Es posible, utilizando el sistema de procesamiento de imagen de acuerdo con esta modalidad, establecer una asociación entre una imagen de objeto y un programa que es utilizado por el CPU principal 10 para llevar a cabo un evento que va a ser sometido al procesamiento de imagen, de manera que el procesamiento del evento relevante se ejecuta de acuerdo con una acción de operador dentro de la imagen en movimiento reflejada sobre la imagen objeto. Como un ejemplo" de una imagen objeto que va a ser sobre puesta sobre la imagen en movimiento reflejada, esta modalidad muestra un caso de uso de una imagen de una comparación y una imagen de una flama que representa que el cerillo se enciende y se quema en la flama. Como una premisa, la imagen de cerillo que es la imagen objeto está asociado por anticipado con un programa utilizado para exhibir una animación de encendido sobre el dispositivo de pantalla 3, indicando que se ha iniciado el encendido. Después, cuando el operador en la imagen en movimiento reflejada se comporta como si impactara la imagen de la comparación dentro de la imagen combinada, la animación de encendido está diseñada para aparecer en una parte de la imagen de la comparación que corresponde a un extremo de la misma que produce una flama. La imagen de la flama es exhibida cuando el operador activa el cerillo. La imagen de la flama puede ser generada utilizando una técnica de, por ejemplo, trazado de textura recursivo. El "trazado de textura recursivo" se refiere a una técnica de trazado de reconstrucción de la textura de una imagen determinada a partir de una imagen de un objeto proporcionado mediante el mapeo de textura y ejecutando el mapeo de textura de manera recursiva. "Mapeo de textura" es una técnica para proporcionar una imagen de un objeto a fin de mejorar la textura de la imagen pegando los datos del mapa de bitios de la textura sobre la superficie del objeto y puede implementarse también utilizando la memoria de estructura 15 como una memoria de textura. Cuando se ejecuta dicho trazado de textura recursivo, se aplica el sombreado "gouraud" a un polígono sobre el cual se traza la textura. En otras palabras, el sombreado "gouraud" calcula el brillo de cada vértice del polígono e interpola entre los vértices para obtener el brillo dentro del polígono (está técnica se llama "mapeo de textura "gouraud"). A fin de proporcionar la imagen de flama, las posiciones de los vértices dentro de la malla que forma la imagen de flama se mueve utilizando números aleatorios como se muestra en la figura 10 y las posiciones de los nuevos vértices son determinadas. El brillo de los vértices se determina también en ba.se a los números aleatorios. Las posiciones de los vértices y el brillo de los vértices se determina cada vez que se actualiza el cuadro. Cada unidad de la malla que forma la imagen de flama es un polígono. Sobre cada polígono, la imagen que se convierta en la base de la flama trazada en la memoria de estructura 15 se forma a través del trazado de textura recursivo y el sombreado "gouraud" antes descrito se aplica en base al brillo de cada vértice del polígono. Esto hace posible producir un aire en elevación sobre la flama, brillo tenue y oscurecimiento de la flama en una forma más realista. Se asume que el procesador de imagen 2 produce una imagen combinada como se muestra en la figura 9, con la imagen de un acoplamiento sobre puesto sobre la imagen en movimiento reflejada del operador sobre el dispositivo de pantalla 3. aquí, se asume que el objetivo es la mano del operador. Al detectar la cantidad de movimiento de la mano en el área en la cual la imagen del acoplamiento es exhibida, el programa asociado con la imagen del acoplamiento es ejecutada y la animación de encendido es exhibida sobre el dispositivo de pantalla 3. La figura 8 muestra el procedimiento de procesamiento llevado a cabo por el procesador de imagen 2 para realizar dicha operación.
Cuando la imagen en movimiento reflejada es actualizada para aquella del cuadro subsecuente y cuando la imagen combinada generada por el generador de imagen de sobre posición 106 es actualizada en consecuencia (etapa S301), el detector de valor de diferencia 107 compara las características de imagen de las imágenes en movimiento reflejadas incluidas en las imágenes combinadas antes y después de la actualización, calcula un valor de diferencia entre las imágenes en la sección de encendido de la imagen del acoplamiento y genera una imagen de diferencia de la sección de encendido de la imagen del acoplamiento (etapa S202). El valor de diferencia que se calcula aquí es un valor que representa cuantitativamente el movimiento de la mano alrededor de la sección de encendido de la imagen del acoplamiento. La imagen de diferencia generada es una imagen conformada de las imágenes de la mano antes y después del movimiento de la mano alrededor de la sección de encendido de la imagen del acoplamiento. Los valores de diferencia calculados son registrados en la memoria principal 11 y adicionados de manera acumulativa durante un cierto periodo (etapa S203). El detector de valor de diferencia 107 envía la suma acumulativa, la cual es la suma acumulativa de las imágenes de diferencia y los valores de diferencia, hacia el controlador de objeto 105. El controlador de objeto 105 determina el color de la imagen de diferencia de acuerdo con la suma acumulativa recibida a partir del detector de valor de diferencia 107 y genera una imagen de flama basada en esta imagen de diferencia (etapa S204). La imagen de flama es generada, por ejemplo, dividiendo la imagen de diferencia en mallas y utilizando la textura recursiva antes mencionada en base a esas mallas. El color de la imagen de flama se determina de acuerdo con el color de la imagen de diferencia. La imagen de flama generada es sobre puesta sobre la sección de encendido de la imagen del acoplamiento. De esta manera, la imagen de flama con el color de acuerdo con la cantidad de movimiento de la mano adicionada es exhibida en el área que muestra el movimiento de la mano alrededor déla sección de encendido de la imagen del acoplamiento. La determinación del color de la imagen de flama de acuerdo con la suma acumulativa de los valores de diferencia hace posible, por ejemplo, expresar como el color de la imagen de flama exhibida en la sección de encendido del acoplamiento cambia gradualmente de acuerdo con la cantidad de movimiento de la mano. Después, el controlador de objeto 105 compara el valor que indica el color de la imagen de flama con un umbral predeterminado (etapa S205). Por ejemplo, si el color déla imagen de flama está representado por los valores de color R, G y B, puede utilizarse la suma de los valores. Cuando el valor que indica el color desigual a o mayor que el umbral (etapa S205: Y), el controlador de objeto 105 determina correr el programa que exhibe la animación de encendido que indica que el acoplamiento ha iniciado (etapa S206). Es decir, se inicia o no la animación de encendido esto se determina de acuerdo con el color de la imagen de flama. Por ejemplo, cuando el color de la imagen de flama cambia de rojo a amarillo de acuerdo con la cantidad de movimiento de la mano, la animación de encendido empieza cuando las imágenes de flama cambian a amarillo. El operador puede conocer una cantidad aproximada de movimiento adicional de la mano requerido para iniciar la animación de encendido. El generador de imagen de sobre posición 106 genera una imagen combinada mediante la sobre posición de una sobre posición de imagen de la animación de encendido sobre la imagen objeto incluyendo la imagen de acoplamiento y la imagen de flama, sobre la imagen en movimiento reflejada obtenida mediante la cámara de video 1 (etapa S207). La animación de encendido es exhibida en la sección de encendido de la imagen de acoplamiento. Cuando el valor que indica el color es menor que el umbral (etapa S205: N), el controlador de objeto 105 envía la imagen de objeto que se sobre pone a la imagen de flama sobre la imagen de acoplamiento, al generador de imagen de sobre posición 106. El generador de imagen de sobre posición 106 genera una imagen combinada mediante la sobre posición de esta imagen objeto sobre la imagen en movimiento reflejada obtenida por la cámara de video 1 (etapa S208). Después, si, por ejemplo, una instrucción para terminar el procesamiento es recibida desde el dispositivo de operación 35, se termina el procesamiento (etapa S209: Y). En caso de no haber instrucción para la terminación del procesamiento (etapa S209: N), la rutina regresa a la etapa S201 y el controlador de exhibición 108 exhibe la imagen combinada generada en la etapa S207 o la etapa S208 sobre el dispositivo de pantalla 3. Como es evidente a partir de lo anterior, el sistema ejecuta el proceso de determinar si se ejecuta o no el programa para exhibir la animación de encendido que está asociada con la imagen de acoplamiento, de acuerdo a que tanto el operador mueva su mano alrededor de la sección de encendido de la imagen de acoplamiento.
Ya que el operador puede ejecutar operaciones para realizar varios eventos en tanto que se observa la imagen en movimiento reflejada del mismo, es posible ejecutar operaciones de entrada para ejecutar el proceso más fácilmente que las operaciones convencionales que usan dispositivos de entrada tales como un teclado y ratón.
[Modalidad 3].
Se describe otra modalidad. Como una premisa, se asume que el procesador de imagen 2 produce sobre el dispositivo de pantalla 3 una imagen combinada con una imagen de cursor (apuntador), la cual es un ejemplo de una imagen objeto, sobre puesta sobre la imagen en movimiento reflejada del operador, como se muestra en la figura 13(a). Se asume también que una pluralidad de objetivos tales como manos, ojos y boca de un operador, están incluidos en la imagen en movimiento reflejada. Aquí, se hace la descripción en conjunción con un caso donde el movimiento de la mano del operador está enfatizado entre la pluralidad de objetivos, y la imagen de cursor es seguida por este movimiento de la mano. Como se muestra en la figura 13(a), la imagen de cursor es una imagen similar a una cara con un énfasis sobre los ojos, lo cual permite que los ojos sean orientados hacia el objetivo. Además, la imagen de cursor se mueve siguiendo el movimiento del objetivo. De manera más especifica, cuando la imagen de cursor es distante del objetivo, la imagen de cursor se mueve hacia el objetivo. Cuando la imagen de cursor atrapa el objetivo, la imagen de cursor sigue el movimiento del objetivo. Las figuras 11 y 12, muestran el procedimiento de procesamiento que se ejecuta mediante el procesador de imagen 2 para habilitar dichas operaciones. De acuerdo con la figura 11, cuando la imagen en movimiento reflejada es actualizada a aquella del cuadro subsecuente y cuando la imagen combinada generada por el generador de imagen de sobre posición 106 es actualizada en consecuencia (etapa S301), el detector de valor de diferencia 107 compara las características de imagen de la imagen en movimiento reflejada incluida en las imágenes combinadas antes y después de la actualización y calcula un valor de diferencia entre ellas (etapa S302). El valor de diferencia que es calculado aquí es un valor que cuantifica los movimientos de las manos, ojos, boca, etc del operador, lo cual lo convierte en un candidato del objetivo en la imagen en movimiento reflejada. El detector de valor de diferencia 107 envía el valor de diferencia de cada objetivo al controlador de objeto 105. El controlador de objeto 105 detecta un objetivo en base al valor de diferencia de cada objetivo enviado desde el detector de valor de diferencia 107 (etapa S303). Por ejemplo, detecta un objetivo cuyo valor de diferencia alcanza el máximo. En este ejemplo, se asume que la mano del operador es detectada como el objetivo. A la detección del objetivo, el controlador de objeto 105 determina como se exhibe la imagen de cursor de acuerdo con el objetivo. Primero, el controlador de objeto 105 determina si el objetivo en la imagen combinada actualizada en la etapa S310 está fuera de la imagen de cursor (etapa S304). Si el objetivo está dentro de la imagen de cursor (etapa S304: N), el controlador de objeto 105 determina que la imagen de cursor ha atrapado el objetivo (etapa S308). Si el objetivo está fuera de la imagen de cursor (etapa S304: Y), el controlador de objeto 105 determina que la imagen de cursor no ha atrapado el objetivo, y ejecuta el procesamiento para determinar como se exhibe la imagen de cursor. Es decir, el controlador de objeto 105 genera una imagen de cursor de manera que los ojos en la imagen de cursor están orientados hacia el objetivo. Además, determina la velocidad a la cual la imagen de cursor se mueve hacia el objetivo de acuerdo con la distancia entre la imagen de cursor y el objetivo (etapa S306). Esta velocidad puede ser mayor que la imagen de cursor que se mueve más lejos del objetivo. Esto hace posible obtener una imagen en la cual el cursor se mueve hacia el objetivo más rápido que la imagen de cursor que permanece más lejos desde el objetivo. El generador de imagen de sobre posición 106 se sobre pone a dicha imagen de cursor sobre la imagen en movimiento reflejada del cuadro subsecuente para generar una imagen combinada como se muestra en la figura 13(a) (etapa S307). Después, la rutina regresa a la etapa S301 y ejecuta la misma operación para la imagen combinada generada. La rutina ejecuta las operaciones de la etapa S301 a S307 hasta que la imagen de cursor atrapa el objetivo, es decir, hasta que se determine la etapa S304 que el objetivo está dentro de la imagen de cursor. Dichas operaciones pueden proporcionar una imagen como se muestra en la figura 13(a) en la cual los ojos en la imagen de cursor están orientados hacia el objetivo (mano) y la imagen de cursor sigue el objetivo. Después, regresando a la figura 12, cuando la imagen de cursor atrapa el objetivo, el detector de valor de diferencia 107 sostiene la imagen del objetivo en ese momento como una imagen de plantilla (etapa S309). Por ejemplo, retiene la sección de la imagen en movimiento reflejada que traslapa con la imagen de cursor como la imagen de plantilla. Después, el detector de valor de diferencia 107 adquiere la imagen en movimiento relejada del cuadro subsecuente a partir del inversor de imagen 102 (etapa S310). El detector de valor de diferencia 107 busca la posición de una imagen que acopla la imagen de plantilla almacenada de entre la imagen de movimiento reflejada adquirida (etapa S311). De manera más especifica, divide la imagen en movimiento reflejada adquirida dentro de las áreas del mismo tamaño que aquella de la imagen de plantilla, y busca la imagen en el área que se asemeja más a la imagen de plantilla entre las imágenes en las áreas divididas. A la detección de la imagen acoplada como un resultado de la búsqueda, reporta la posición de la imagen detectada para el controlador de objeto 105. El controlador de objeto 105 determina la posición reportada desde el detector de valor de diferencia 107 como la posición de la imagen de cursor para la imagen combinada subsecuente (etapa S312). El generador de imagen de sobre posición 106 sobre pone la imagen de cursor en la posición determinada en la etapa S312 mediante el controlador de objeto 105 sobre la misma imagen en movimiento reflejada que la imagen en movimiento reflejada adquirida en la etapa S310 mediante el detector de valor de diferencia 107, y genera una imagen combinada como se muestra en la figura 13(b) (etapa S313). Después, el cuadro es actualizado y el controlador de exhibición 108 exhibe la imagen combinada generada sobre el dispositivo de pantalla 3 (etapa S314). Repitiendo las operaciones antes descritas después de que se atrapa el objetivo (etapa S309 a etapa S314) se proporciona una imagen en la cual la imagen de cursor sigue al objetivo. De manera más especifica, cuando la imagen de cursor atrapa el objetivo (mano) como se muestra en la figura 13(b), la imagen de cursor es exhibida posteriormente en el destino del objetivo siempre que se mueve el objetivo. Incluso cuando el operador extiende la mano como se muestra en la figura 13(b) a la figura 13(c), la imagen de cursor es exhibida en la punta de la mano extendida del operador junto con el movimiento de la mano reconocido como el objetivo. Utilizando la imagen de cursor se permite al operador encontrar en un vistazo que parte de su cuerpo está funcionando como el cursor cuando se selecciona un proceso a partir de la imagen de menú como se muestra en la modalidad 1, por ejemplo. Además, si, por ejemplo, el trazo del movimiento de la imagen de cursor se fija para mantenerse y exhibirse, es posible mostrar el trazo del movimiento del objetivo sobre el dispositivo de pantalla 3. Esto hace posible mostrar, por ejemplo, imágenes y caracteres, etc trazados en el espacio sobre el dispositivo de pantalla 3. Como será evidente a partir de la descripción anterior, cuando el operador necesita registrar dato.s u otros, la presente invención permite al operador registrar o seleccionar los datos fácilmente utilizando la imagen en movimiento reflejada en tanto que observa la imagen combinada exhibida sobre el dispositivo de pantalla, y por lo tanto proporciona una interfaz de entrada amigable con el usuario sin la necesidad de acostumbrarse a la misma. Pueden hacerse varias modalidades, cambios y modificaciones sin apartarse del amplio espíritu y alcance de la presente invención. Las modalidades antes descritas están destinadas a ser ilustrativas y no a limitar el alcance de la presente invención. El alcance de la presente invención está definido por las reivindicaciones anexas en lugar de por las modalidades de las mismas. Varias modalidades que quedan dentro del alcance de las reivindicaciones anexas y equivalentes de las mismas están contempladas dentro del alcance de la presente invención.

Claims (11)

REIVINDICACIONES
1. Un procesador de imagen que comprende: medios de captura de imagen para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento; medios generadores de imagen para generar una imagen objeto que representa un objeto predeterminado, de acuerdo con un movimiento del objetivo que está incluido en la imagen en movimiento reflejada capturada por los medios de captura de imagen; y medios de control para combinar la imagen de objeto generada por los medios generadores de imagen con la imagen en movimiento reflejada y capturada y exhibir la imagen combinada sobre un dispositivo de pantalla predeterminado.
2. Un procesador de imagen que comprende: medios de captura de imagen para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento sobre la serie de tiempo; medios detectores para detectar el objetivo y un componente de movimiento del mismo a través de la detección de características de imagen entre una imagen en movimiento reflejada actual y una imagen en movimiento reflejada inmediatamente precedente; medios generadores de imagen para generar una imagen objeto que representa un objeto predeterminado de manera que la imagen objeto varía de acuerdo con el componente de movimiento del objetivo detectado por los medios detectores; y medios de control para combinar la imagen objeto generada por los medios generadores de imagen con dicha imagen en movimiento reflejada y capturada y exhibir la imagen combinada sobre un dispositivo de pantalla predeterminado.
3. El procesador de imagen de conformidad con la reivindicación 2, caracterizado porque dichos medios generadores de imagen están configurados para generar la imagen objeto de manera que la imagen objeto sigue un movimiento del objetivo detectado.
4. El procesador de imagen de conformidad con la reivindicación 2, que comprende además medios para hacer preparaciones para ejecutar el procesamiento requerido en base a la imagen objeto generada de acuerdo con el componente de movimiento de dicho objetivo.
5. El procesador de imagen de conformidad con la reivindicación 2, que comprende además medios para comparar una imagen combinada obtenida mediante la combinación de la imagen objeto generada por dichos medios generadores de imagen y la imagen en movimiento reflejada actual, con una imagen de plantilla que es la imagen del objetivo incluida en la imagen en movimiento reflejada inmediatamente precedente, detectar la parte de la imagen combinada cuya característica de imagen es más semejante a la imagen de plantilla, y hacer preparaciones para ejecutar el procesamiento requerido en base a la imagen de objeto cuando la imagen de dicha parte de la imagen combinada detectada incluye la imagen de objeto.
6. El procesador de imagen de conformidad con la reivindicación 2, caracterizado porque la imagen objeto es asociada con el procesamiento predeterminado, el procesador de imagen que comprende además medios para ejecutar el procesamiento que está asociado con la imagen objeto cuando el componente de movimiento de dicho objetivo detectado por los medios detectores satisface una condición predeterminada.
7. El procesador de imagen de conformidad con la reivindicación 2, en donde la imagen en movimiento reflejada incluye una pluralidad de dichos objetivos, los medios detectores están configurados para detectar el componente de movimiento en cada una de la pluralidad de objetivos, y detectar un objetivo en base a los componentes de movimientos detectados de dicha pluralidad de objetivos; y los medios generadores de imagen están configurados para cambiar la imagen de objeto de acuerdo con el componente de movimiento de dicho objetivo detectado por los medios detectores.
8. Un método de procesamiento de imagen, que comprende las-etapas de: capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento dentro de un procesador de imagen; el procesador de imagen que genera una imagen objeto que representa un objeto predeterminado de acuerdo con un movimiento del objetivo incluido en la imagen en movimiento reflejada y capturada, y capturar la imagen de objeto generada con la imagen en movimiento reflejada y capturada para exhibir la imagen combinada sobre un dispositivo de pantalla previamente determinado.
9. un programa de computadora para ocasionar que una computadora conectada a un dispositivo de pantalla ejecute el procesamiento de: capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento; generar una imagen objeto que representa un objeto predeterminado de acuerdo con un movimiento del objetivo incluido en la imagen en movimiento reflejada y capturada; y combinar la imagen objeto generada con la imagen en movimiento reflejada y capturada para exhibir la imagen combinada sobre el dispositivo de pantalla.
10. Un medio de registro que se puede leer en computadora que registra el programa de computadora de conformidad con la reivindicación 9.
11. Un dispositivo semi conductor que está incorporado en un aparato montado en una computadora conectada a un dispositivo de pantalla, el dispositivo semi conductor que ocasiona que la computadora forme las funciones de: medios para capturar una imagen en movimiento reflejada una parte de la cual incluye un objetivo en movimiento; medios para generar una imagen de objeto que representa un objeto predeterminado de acuerdo con un movimiento del objetivo incluido en la imagen en movimiento capturada y reflejada; y medios para combinar la imagen de objeto generada con la imagen en movimiento reflejada y capturada para exhibir la imagen combinada sobre el dispositivo de pantalla.
MXPA02005288A 2000-10-06 2001-10-04 Procesador de imagen, metodo de procesamiento de imagen, medio de registro, programa de computadora y dispositivo esmi conductor. MXPA02005288A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000307574 2000-10-06
JP2001295098A JP3725460B2 (ja) 2000-10-06 2001-09-26 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
PCT/JP2001/008762 WO2002031773A1 (fr) 2000-10-06 2001-10-04 Appareil et procede de traitement d'image, support d'enregistrement, programme informatique et dispositif a semiconducteurs

Publications (1)

Publication Number Publication Date
MXPA02005288A true MXPA02005288A (es) 2002-12-11

Family

ID=26601678

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA02005288A MXPA02005288A (es) 2000-10-06 2001-10-04 Procesador de imagen, metodo de procesamiento de imagen, medio de registro, programa de computadora y dispositivo esmi conductor.

Country Status (11)

Country Link
US (3) US6771277B2 (es)
EP (1) EP1324269B1 (es)
JP (1) JP3725460B2 (es)
KR (1) KR100845390B1 (es)
CN (1) CN1279761C (es)
AU (1) AU9418701A (es)
BR (1) BR0107310A (es)
CA (1) CA2392725A1 (es)
MX (1) MXPA02005288A (es)
TW (1) TWI231445B (es)
WO (1) WO2002031773A1 (es)

Families Citing this family (176)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6585622B1 (en) 1999-12-03 2003-07-01 Nike, Inc. Interactive use an athletic performance monitoring and reward method, system, and computer program product
US8956228B2 (en) * 1999-12-03 2015-02-17 Nike, Inc. Game pod
JP4615252B2 (ja) * 2000-10-06 2011-01-19 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20060154220A1 (en) * 2002-07-12 2006-07-13 Mary Toniolo Dance training device
ATE454195T1 (de) 2002-10-30 2010-01-15 Nike International Ltd Kleidungsstücke mit bewegungserfassungsmarker für videospiele
US8206219B2 (en) 2002-10-30 2012-06-26 Nike, Inc. Interactive gaming apparel for interactive gaming
JP3854229B2 (ja) * 2003-01-07 2006-12-06 株式会社東芝 画像処理装置
DE20300882U1 (de) * 2003-01-21 2003-03-13 Fraunhofer Ges Forschung Vorrichtung zur interaktiven Steuerung eines Mauszeigers einer graphischen Benutzerschnittstelle
JP4323180B2 (ja) * 2003-02-13 2009-09-02 日本電信電話株式会社 自己画像表示を用いたインタフェース方法、装置、およびプログラム
GB2398691B (en) * 2003-02-21 2006-05-31 Sony Comp Entertainment Europe Control of data processing
GB2398690B (en) * 2003-02-21 2006-05-10 Sony Comp Entertainment Europe Control of data processing
ATE378759T1 (de) 2003-05-06 2007-11-15 Cvon Innovations Ltd Nachrichtenübertragungssystem und nachrichtendienst
WO2005008626A1 (en) * 2003-07-11 2005-01-27 University Of North Carolina At Chapel Hill Methods and systems for controlling a computer using a video image and for combining the video image with a computer desktop
US7495343B1 (en) * 2003-07-31 2009-02-24 Nvidia Corporation Pad over active circuit system and method with frame support structure
US7453158B2 (en) * 2003-07-31 2008-11-18 Nvidia Corporation Pad over active circuit system and method with meshed support structure
GB0321337D0 (en) * 2003-09-11 2003-10-15 Massone Mobile Advertising Sys Method and system for distributing advertisements
WO2005065798A1 (ja) 2004-01-06 2005-07-21 Sony Computer Entertainment Inc. 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP3853796B2 (ja) * 2004-03-18 2006-12-06 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびエンタテインメント装置
JP2005301479A (ja) * 2004-04-08 2005-10-27 Akinori Yoshino 投影された提示者の動作による命令入力装置
GB2415639B (en) * 2004-06-29 2008-09-17 Sony Comp Entertainment Europe Control of data processing
JP4005061B2 (ja) 2004-06-30 2007-11-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法
JP4005060B2 (ja) 2004-06-30 2007-11-07 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、プログラムおよびゲームキャラクタ移動制御方法
US20060019746A1 (en) * 2004-07-22 2006-01-26 Atlantic City Coin & Slot Service Company, Inc Gaming device utilizing player image
JP4433948B2 (ja) 2004-09-02 2010-03-17 株式会社セガ 背景画像取得プログラム、ビデオゲーム装置、背景画像取得方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4419768B2 (ja) * 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
JP4717445B2 (ja) * 2005-01-06 2011-07-06 株式会社バンダイナムコゲームス 画像処理システム、画像処理装置、ゲーム装置、プログラム、情報記憶媒体および画像処理方法
CN100412908C (zh) * 2005-03-07 2008-08-20 腾讯科技(深圳)有限公司 一种多个动画文件的合并显示方法
WO2006098255A1 (ja) * 2005-03-15 2006-09-21 Shunsuke Nakamura 画像表示方法およびその装置
JP4583981B2 (ja) * 2005-03-16 2010-11-17 株式会社リコー 画像処理装置
US7679689B2 (en) 2005-05-16 2010-03-16 Victor Company Of Japan, Limited Electronic appliance
JP4861699B2 (ja) * 2005-06-29 2012-01-25 株式会社コナミデジタルエンタテインメント ネットワークゲームシステム、ネットワークゲームシステムの制御方法、ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2007087100A (ja) * 2005-09-22 2007-04-05 Victor Co Of Japan Ltd 電子機器システム
US7877387B2 (en) 2005-09-30 2011-01-25 Strands, Inc. Systems and methods for promotional media item selection and promotional program unit generation
US20070109600A1 (en) * 2005-11-15 2007-05-17 Lexmark International, Inc. Printer optimization method and system
US8549442B2 (en) * 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
JP2007272067A (ja) * 2006-03-31 2007-10-18 Brother Ind Ltd 画像表示装置
JP4742976B2 (ja) * 2006-05-12 2011-08-10 富士ゼロックス株式会社 遠隔指示システム、遠隔指示方法及びプログラム
GB2438449C (en) 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
JP4689548B2 (ja) * 2006-07-19 2011-05-25 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4650381B2 (ja) * 2006-09-08 2011-03-16 日本ビクター株式会社 電子機器
US8144121B2 (en) * 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
GB2438475A (en) 2007-03-07 2007-11-28 Cvon Innovations Ltd A method for ranking search results
KR20080088802A (ko) * 2007-03-30 2008-10-06 삼성전자주식회사 디스플레이 상에서 포인터 이동속도가 가변적인 gui제공방법 및 이를 적용한 영상기기
GB2441399B (en) 2007-04-03 2009-02-18 Cvon Innovations Ltd Network invitation arrangement and method
KR101328950B1 (ko) 2007-04-24 2013-11-13 엘지전자 주식회사 화상 디스플레이 방법 및 이를 구현할 수 있는 화상통신용단말기
US8671000B2 (en) 2007-04-24 2014-03-11 Apple Inc. Method and arrangement for providing content to multimedia devices
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP4415198B2 (ja) * 2007-08-30 2010-02-17 カシオ計算機株式会社 画像合成装置及びプログラム
EP2597868B1 (en) * 2007-09-24 2017-09-13 Qualcomm Incorporated Enhanced interface for voice and video communications
WO2009099446A1 (en) * 2008-02-08 2009-08-13 Hewlett-Packard Development Company, L.P. Printing method using multiple processors
JP5116514B2 (ja) * 2008-03-11 2013-01-09 キヤノン株式会社 撮像装置および表示制御方法
US8073203B2 (en) * 2008-04-15 2011-12-06 Cyberlink Corp. Generating effects in a webcam application
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
KR20100039017A (ko) * 2008-10-07 2010-04-15 한국전자통신연구원 메뉴 마크업 언어를 이용한 원격 제어 장치
US20100091085A1 (en) * 2008-10-15 2010-04-15 Sony Corporation And Sony Electronics Inc. Augmenting tv menu icon with images in front of tv
JP2010142592A (ja) * 2008-12-22 2010-07-01 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
JP2010176510A (ja) * 2009-01-30 2010-08-12 Sanyo Electric Co Ltd 情報表示装置
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8732623B2 (en) * 2009-02-17 2014-05-20 Microsoft Corporation Web cam based user interaction
JP5635736B2 (ja) 2009-02-19 2014-12-03 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP4767331B2 (ja) * 2009-03-10 2011-09-07 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8314832B2 (en) 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US8194101B1 (en) * 2009-04-01 2012-06-05 Microsoft Corporation Dynamic perspective video window
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
JP2010277197A (ja) * 2009-05-26 2010-12-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8112719B2 (en) * 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
EP2256590A1 (en) * 2009-05-26 2010-12-01 Topspeed Technology Corp. Method for controlling gesture-based remote control system
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8803889B2 (en) * 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8145594B2 (en) 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US20110010497A1 (en) * 2009-07-09 2011-01-13 Sandisk Il Ltd. A storage device receiving commands and data regardless of a host
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
GB2471905B (en) 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
JP2010003303A (ja) * 2009-07-21 2010-01-07 Victor Co Of Japan Ltd 電子機器の制御装置
US8847984B2 (en) * 2009-07-27 2014-09-30 Disney Enterprises, Inc. System and method for forming a composite image in a portable computing device having a dual screen display
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US9633476B1 (en) * 2009-10-29 2017-04-25 Intuit Inc. Method and apparatus for using augmented reality for business graphics
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
US9146669B2 (en) 2009-12-29 2015-09-29 Bizmodeline Co., Ltd. Password processing method and apparatus
JP5659510B2 (ja) * 2010-03-10 2015-01-28 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
SG184183A1 (en) * 2010-03-19 2012-10-30 Xyz Wave Pte Ltd An apparatus for enabling control of content on a display device using at least one gesture, consequent methods enabled by the apparatus and applications of the apparatus
JP4794678B1 (ja) 2010-05-24 2011-10-19 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像通信システム
US9367847B2 (en) 2010-05-28 2016-06-14 Apple Inc. Presenting content packages based on audience retargeting
EP2400379A1 (en) * 2010-06-23 2011-12-28 MFA Informatik AG Graphical control of a computer by a user
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
JP5327211B2 (ja) 2010-12-28 2013-10-30 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
CN102645970B (zh) * 2011-02-22 2015-10-28 鸿富锦精密工业(深圳)有限公司 移动向量触发控制方法及使用其的电子装置
WO2012123033A1 (de) * 2011-03-17 2012-09-20 Ssi Schaefer Noell Gmbh Lager Und Systemtechnik Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
JP5585505B2 (ja) * 2011-03-17 2014-09-10 セイコーエプソン株式会社 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US8873841B2 (en) * 2011-04-21 2014-10-28 Nokia Corporation Methods and apparatuses for facilitating gesture recognition
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
US9329673B2 (en) 2011-04-28 2016-05-03 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
GB2493906A (en) * 2011-08-15 2013-02-27 Moheb Milad Superimposed images for revealing changes in the settings of an analogue control console
JP2013080413A (ja) * 2011-10-05 2013-05-02 Sony Corp 入力装置、入力認識方法
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US9043766B2 (en) * 2011-12-16 2015-05-26 Facebook, Inc. Language translation using preprocessor macros
KR101410410B1 (ko) * 2011-12-21 2014-06-27 주식회사 케이티 체감형 학습 장치 및 방법
JP5567606B2 (ja) * 2012-01-31 2014-08-06 東芝テック株式会社 情報処理装置及びプログラム
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
GB2501925B (en) * 2012-05-11 2015-04-29 Sony Comp Entertainment Europe Method and system for augmented reality
WO2014010670A1 (ja) 2012-07-13 2014-01-16 Isayama Taro 要素選択装置、要素選択方法、および、プログラム
TWI488069B (zh) * 2012-10-08 2015-06-11 Qisda Corp 光學繪圖方法
TWI455044B (zh) * 2012-10-31 2014-10-01 Hwa Hsia Inst Of Technology 應用影像辨識之反應訓練系統及方法
JP5689103B2 (ja) * 2012-11-07 2015-03-25 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム制御方法
EP2940985A4 (en) * 2012-12-26 2016-08-17 Sony Corp PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PROGRAM THEREFOR
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
JP6048189B2 (ja) * 2013-02-08 2016-12-21 株式会社リコー 投影システム、画像生成プログラム、情報処理装置及び画像生成方法
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
RU2015148842A (ru) 2013-06-14 2017-07-19 Интерконтинентал Грейт Брендс Ллк Интерактивные видеоигры
CN103428551A (zh) * 2013-08-24 2013-12-04 渭南高新区金石为开咨询有限公司 一种手势遥控系统
US9609236B2 (en) 2013-09-16 2017-03-28 Kyle L. Baltz Camera and image processing method
WO2015072604A1 (ko) * 2013-11-15 2015-05-21 엘지전자(주) 투명 디스플레이 장치와 그의 제어방법
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
JP5979450B2 (ja) * 2014-07-28 2016-08-24 株式会社クラス・マイスター ゲーム装置の制御プログラム
US9977565B2 (en) 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
CN104680477A (zh) * 2015-03-04 2015-06-03 江西科技学院 一种图像镜像算法
CN106022887A (zh) * 2016-05-26 2016-10-12 江阴迈德机械有限公司 一种仿真穿戴试镜
CN106057171B (zh) * 2016-07-21 2019-05-24 Oppo广东移动通信有限公司 控制方法及控制装置
JP6892498B2 (ja) * 2016-09-07 2021-06-23 イ, チョル ウLEE, Chul Woo 多次元反応型映像生成装置、方法及びプログラム、並びに多次元反応型映像再生方法及びプログラム
EP3649836B1 (en) * 2017-07-06 2022-06-08 Hewlett-Packard Development Company, L.P. Mounting assemblies for peripheral modules
JP7305401B2 (ja) * 2018-09-06 2023-07-10 キヤノン株式会社 画像処理装置、画像処理装置の作動方法、及びプログラム
EP3941602A1 (en) 2019-03-18 2022-01-26 Google LLC Frame overlay for disparities between frames of a game stream

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01315884A (ja) * 1988-06-16 1989-12-20 Sony Corp パターン追跡方法
US5261041A (en) * 1990-12-28 1993-11-09 Apple Computer, Inc. Computer controlled animation system based on definitional animated objects and methods of manipulating same
JPH06102993A (ja) * 1992-09-22 1994-04-15 Nippon Telegr & Teleph Corp <Ntt> 指示入力装置
JPH06153017A (ja) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd 機器の遠隔制御装置
US5936610A (en) * 1993-07-27 1999-08-10 Canon Kabushiki Kaisha Control device for image input apparatus
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
JPH07155467A (ja) * 1993-12-02 1995-06-20 Sega Enterp Ltd 遊戯者の画像入力を有するビデオゲーム装置
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
JP3766981B2 (ja) * 1994-04-05 2006-04-19 カシオ計算機株式会社 画像制御装置および画像制御方法
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
JPH09265538A (ja) * 1996-03-29 1997-10-07 Matsushita Electric Works Ltd 自動追尾装置
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JP3209178B2 (ja) * 1998-03-30 2001-09-17 日本電気株式会社 マウスおよびマウスを用いる情報処理装置
US6088018A (en) * 1998-06-11 2000-07-11 Intel Corporation Method of using video reflection in providing input data to a computer system
KR100553671B1 (ko) * 1998-06-27 2006-05-10 삼성전자주식회사 컴퓨터 시스템의 포인팅 장치 구동 방법
US6392675B1 (en) * 1999-02-24 2002-05-21 International Business Machines Corporation Variable speed cursor movement

Also Published As

Publication number Publication date
AU9418701A (en) 2002-04-22
EP1324269A1 (en) 2003-07-02
US7176945B2 (en) 2007-02-13
CN1279761C (zh) 2006-10-11
US20070013718A1 (en) 2007-01-18
BR0107310A (pt) 2002-08-27
US20020097247A1 (en) 2002-07-25
US6771277B2 (en) 2004-08-03
JP3725460B2 (ja) 2005-12-14
EP1324269A4 (en) 2006-02-08
WO2002031773A1 (fr) 2002-04-18
EP1324269B1 (en) 2017-01-25
TWI231445B (en) 2005-04-21
CA2392725A1 (en) 2002-04-18
US20040233224A1 (en) 2004-11-25
KR20020059844A (ko) 2002-07-13
CN1393003A (zh) 2003-01-22
JP2002196855A (ja) 2002-07-12
KR100845390B1 (ko) 2008-07-09

Similar Documents

Publication Publication Date Title
MXPA02005288A (es) Procesador de imagen, metodo de procesamiento de imagen, medio de registro, programa de computadora y dispositivo esmi conductor.
JP6627861B2 (ja) 画像処理システムおよび画像処理方法、並びにプログラム
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
EP2521097B1 (en) System and Method of Input Processing for Augmented Reality
JP4533087B2 (ja) 画像処理方法、画像処理装置
EP2512141A1 (en) System and method of user interaction in augmented reality
JP2004193933A (ja) 画像拡大表示方法・装置・メディア・プログラム
CN111432123A (zh) 图像处理方法及装置
CN112422945A (zh) 图像处理方法、移动终端及存储介质
JP2009251702A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4824409B2 (ja) 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
CN114167997B (zh) 一种模型显示方法、装置、设备和存储介质
JP4615252B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP5676959B2 (ja) 情報処理装置及びその制御方法
CN112529770A (zh) 图像处理方法、装置、电子设备和可读存储介质
US20230061557A1 (en) Electronic device and program
JP7418107B2 (ja) 形状推定装置、形状推定方法及びプログラム
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス