[go: up one dir, main page]

ES2388357T3 - Telefono móvil para recoger datos de índices de audiencia - Google Patents

Telefono móvil para recoger datos de índices de audiencia Download PDF

Info

Publication number
ES2388357T3
ES2388357T3 ES08101912T ES08101912T ES2388357T3 ES 2388357 T3 ES2388357 T3 ES 2388357T3 ES 08101912 T ES08101912 T ES 08101912T ES 08101912 T ES08101912 T ES 08101912T ES 2388357 T3 ES2388357 T3 ES 2388357T3
Authority
ES
Spain
Prior art keywords
data
signal
mobile phone
mobile telephone
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES08101912T
Other languages
English (en)
Inventor
Aled Wynne Jones
Michael Raymond Reynolds
David Bartlett
Ian Michael Hosking
Donald Glenn Guy
Peter John Kelly
Daniel R. E. Timson
Nicolas Vasilopolous
Alan Michael Hart
Robert John Morland
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intrasonics SARL
Original Assignee
Intrasonics SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0029273A external-priority patent/GB0029273D0/en
Priority claimed from GB0101947A external-priority patent/GB0101947D0/en
Priority claimed from GB0101953A external-priority patent/GB0101953D0/en
Priority claimed from GB0105869A external-priority patent/GB0105869D0/en
Priority claimed from GB0106587A external-priority patent/GB0106587D0/en
Priority claimed from GB0106778A external-priority patent/GB0106778D0/en
Priority claimed from GB0107124A external-priority patent/GB0107124D0/en
Priority claimed from GB0111016A external-priority patent/GB0111016D0/en
Priority claimed from GB0114714A external-priority patent/GB0114714D0/en
Priority claimed from GB0127013A external-priority patent/GB0127013D0/en
Application filed by Intrasonics SARL filed Critical Intrasonics SARL
Publication of ES2388357T3 publication Critical patent/ES2388357T3/es
Application granted granted Critical
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel
    • H04H20/31Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/93Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/21Combinations with auxiliary equipment, e.g. with clocks or memoranda pads
    • H04M1/215Combinations with auxiliary equipment, e.g. with clocks or memoranda pads by non-intrusive coupling means, e.g. acoustic couplers
    • H04M1/2155Acoustic coupling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42684Client identification by a unique number or address, e.g. serial number, MAC address, socket ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • H04N21/44224Monitoring of user activity on external systems, e.g. Internet browsing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/365Details; Accessories allowing a choice of facial features, e.g. to change the facial expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/49Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying locations
    • H04H60/52Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying locations of users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/78Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations
    • H04H60/80Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations characterised by transmission among terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/253Telephone sets using digital voice transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/2753Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips providing data content
    • H04M1/2757Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips providing data content by data transmission, e.g. downloading
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/57Arrangements for indicating or recording the number of the calling subscriber at the called subscriber's set
    • H04M1/575Means for retrieving and displaying personal data about calling party
    • H04M1/578Means for retrieving and displaying personal data about calling party associated with a synthesized vocal announcement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/607Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for more than one sound signal, e.g. stereo, multilanguages

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Power Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • Eye Examination Apparatus (AREA)
  • Transceivers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Communication Control (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un teléfono móvil que comprende:memoria (125) que almacena , en uso, información de identificación asociada con una dirección detelecomunicaciones del teléfono móvil:un micrófono (23) para recibir una señal acústica de una voz de usuario o de una transmisión de audio quecomprende una señal de datos codificada en la misma para convertir la señal acústica recibida en una señal eléctricacorrespondiente:un procesador de radiofrecuencia (121) operable para transmitir voz y / o señales de datos y para recibir voz y / oseñales de datos desde una red de telefonía móvil (35, 39):Un procesador de datos (115), acoplado a dicho micrófono (23) y a dicho procesador de radiofrecuencias (121), yoperable, en un primer modo,: para causar señales de voz correspondientes a la voz del usuario para ser pasadas adicho procesador de radiofrecuencias (121) para la transmisión a dicha red de telefonía móvil (35,39), y operable, enun segundo modo,: para procesar señales de transmisión de audio que comprenden una señal de datos codificadaen la misma recibida por dicho micrófono (23) para obtener datos de índices de audiencia relativos a la transmisiónde audio, y operable para pasar al procesador de radiofrecuencia (121) para la transmisión a una estación de índicesde audiencia remota (551), para el análisis de índices de audiencia, representación de datos: i) la información deidentificación almacenada asociada al teléfono móvil (21): y ii) los datos de índices de audiencia obtenidos.

Description

Teléfono móvil para recoger datos de índices de audiencia.
Este invento se refiere a un sistema de comunicación. El invento tiene una relevancia particular, pero no exclusiva, para un sistema de comunicaciones en el cual un aparato telefónico, tal como un teléfono móvil, está provisto de un canal de datos secundario.
Están disponibles teléfonos móviles en los cuales se forma un canal de datos secundario transmitiendo datos a través de un enlace de infrarrojos, por ejemplo de acuerdo con el protocolo IrDA. Una desventaja de utilizar un enlace de infrarrojos es que el teléfono móvil tiene que estar alineado con bastante precisión con otro puerto de infrarrojos.
El documento WO-A-94/17609 muestra un dispositivo contador de personas portátil que es utilizado para reunir información de índices de audiencia relativa a los hábitos televisivos de un usuario. En una realización, el dispositivo incluye un micrófono que recoge el sonido emitido por un receptor de televisión que tiene los datos de índices de audiencia integrado en el mismo. Estos datos integrados son recuperados y transmitidos desde el contador de personas personal a una estación de índices de audiencias remota utilizando el módulo de teléfono móvil que está construido dentro del contador de personas.
El documento WO-A-99/33206 muestra un sistema de medición de audiencias que usa un teléfono que recibe los datos de los índices de audiencia transmitidos a través de un enlace de comunicación de radiofrecuencias desde un decodificador asociado a la televisión. El teléfono de hogar transmite entonces esta información de índices de audiencias a una estación base que almacena y envía la información de índices de audiencia a una estación de índices de audiencia remota a través del conmutador público de la red telefónica.
El documento EP 0713335 muestra un sistema interactivo en el que el teléfono móvil de un usuario detecta datos incrustados dentro del audio o el video de un programa de televisión. El teléfono recoge estos datos y presenta información al usuario para permitir al usuario controlar si se recupera más información o no desde una localización remota a través de la red de teléfono móvil.
De acuerdo a un aspecto, la invención proporciona un teléfono móvil que comprende: almacenamiento de memoria, en uso, información de identificación asociada con una dirección de telecomunicaciones de un teléfono móvil: un micrófono para recibir una señal acústica de la voz del usuario o de una transmisión de audio que comprende datos codificados en la misma y para convertir la señal acústica recibida en una señal eléctrica correspondiente: un procesador de radiofrecuencias operable para transmitir señales y para recibir señales de una red de teléfono móvil durante una llamada de voz: un procesador de datos, acoplado a dicho micrófono y a dicho procesador de radiofrecuencias para transmitir a dicha red de teléfono móvil, y operable, en un segundo modo: para procesar señales de transmisión de audio que comprenden datos codificados en la misma recibidos por dicho micrófono para obtener datos de índices de audiencia relativos a la transmisión de audio, y operable para pasar al procesador de radiofrecuencias para transmitir a una estación de índices de audiencias remota, para un análisis de índices de audiencia, representación de datos: i) la información de identificación almacenada asociada al teléfono móvil: y ii) los datos de índices de audiencia obtenidos.
En una descripción adicional, el término “realización” a menos que sea además calificado por “realización de la invención” define realizaciones de ejemplos de técnicas.
Se describirán ahora realizaciones del invento a modo de ejemplo con referencia a los dibujos que se acompañan, en los cuales:
La figura 1 muestra esquemáticamente un sistema de transmisión de señales para comunicar una señal de datos a un teléfono móvil a través de la pista de audio de una señal de televisión y para descargar información de Internet al teléfono móvil de acuerdo con la señal de datos;
La figura 2 muestra esquemáticamente un codificador que forma parte del sistema de transmisión de señales ilustrado en la figura 1;
La figura 3 es un gráfico que compara el espectro de potencia de una pista de audio típica de una señal de televisión con el de una señal de datos modulada con y sin codificación de espectro disperso;
La figura 4 muestra esquemáticamente un elemento de conformación que forma parte del codificador ilustrado en la figura 2;
La figura 5 es un gráfico de un espectro de potencia correspondiente a la sensibilidad del oído humano con y sin la presencia de un tono de banda estrecha;
La figura 6 muestra esquemáticamente un teléfono móvil que forma parte del sistema de transmisión de señales ilustrado en la figura 1;
La figura 7A es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador que forma parte del teléfono móvil ilustrado en la figura 6 cuando recibe y procesa una señal de datos;
La figura 7B es un diagrama de flujo que ilustra las operaciones realizadas por el teléfono móvil representado en la figura 6 para recibir y procesar una señal de datos;
La figura 8 muestra esquemáticamente un codificador como primera alternativa al codificador ilustrado en la figura 2;
La figura 9 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador de un teléfono móvil como primera alternativa al teléfono móvil ilustrado en la figura 6 cuando demodula una señal codificada por el codificador de primera alternativa ilustrado en la figura 8;
La figura 10 muestra esquemáticamente un mezclador de audio en un codificador de segunda alternativa al codificador ilustrado en la figura 2;
La figura 11A es un diagrama de temporización que ilustra una pista de audio típica;
La figura 11B es un diagrama de temporización que ilustra la porción predecible de la pista de audio ilustrada en la figura 11A;
La figura 11C es un diagrama de temporización que muestra la porción no predecible de la pista de audio ilustrada en la figura 11A;
La figura 11D es un diagrama de temporización que muestra una señal de datos de espectro disperso;
La figura 11E es un diagrama de temporización que representa la señal de datos de espectro disperso ilustrado en la figura 11D después de haber sido conformada para obtener una aproximación de la porción no predecible de la pista de audio ilustrada en la figura 11C;
La figura 11F es un diagrama de temporización que representa una pista de audio modificada obtenida combinando la porción predecible de la pista de audio ilustrada en la figura 11B con la señal de espectro disperso conformada representada en la figura 11E;
La figura 12 muestra esquemáticamente un mezclador de audio para un codificador de tercera alternativa al codificador ilustrado en la figura 2;
La figura 13 muestra esquemáticamente un mezclador de audio para un codificador de cuarta alternativa al codificador ilustrado en la figura 2;
La figura 14 muestra esquemáticamente un sistema de transmisión de señales de primera alternativa en el cual se comunican datos entre dos teléfonos móviles a través de señales acústicas;
La figura 15 es un diagrama de bloques que representa con más detalle un teléfono móvil del sistema de transmisión de señales de primera alternativa ilustrado en la figura 14;
La figura 16 representa esquemáticamente un sistema de transmisión de señales de segunda alternativa en el cual un teléfono móvil codifica una señal de control que varía de acuerdo con el número de teléfono de un usuario que realiza una llamada, dentro de una señal de llamada, y un juguete detecta la señal de llamada y responde de acuerdo con la señal de control;
La figura 17 muestra esquemáticamente un teléfono móvil que forma parte del sistema de transmisión de señales de segunda alternativa ilustrado en la figura 16;
La figura 18 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador del teléfono móvil ilustrado en la figura 17 cuando recibe una llamada entrante;
La figura 19 muestra esquemáticamente un juguete que forma parte del sistema de transmisión de señales de segunda alternativa ilustrado en la figura 16;
La figura 20 representa esquemáticamente un sistema de transmisión de señales de tercera alternativa en el cual una señal de datos se transmite entre un ordenador y un juguete a través de una señal acústica emitida por un teléfono móvil;
La figura 21 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador de un teléfono móvil para el sistema de transmisión de señales de tercera alternativa ilustrado en la figura 20 cuando procesa una señal de control recibida;
La figura 22 muestra esquemáticamente un servidor de primera alternativa al sistema de transmisión de señales ilustrado en la figura 1;
La figura 23 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador de un teléfono móvil que forma parte de un sistema de detección de posición;
La figura 24 es un diagrama de bloques esquemático que muestra la configuración funcional de un módulo procesador de posición ejecutado por el procesador ilustrado en la figura 23;
La figura 25 es un diagrama esquemático de un sistema de detección de posición de primera alternativa;
La figura 26 muestra el conjunto de circuitos eléctricos de una baliza maestra en el sistema de detección de posición de primera alternativa ilustrado en la figura 25;
La figura 27 es un diagrama de bloques esquemático que muestra la configuración funcional de un procesador de un teléfono móvil que forma parte del sistema de detección de posición de primera alternativa ilustrado en la figura 25; y
La figura 28 es un diagrama de bloques esquemático que muestra la configuración funcional de una unidad correladora ejecutada por el procesador ilustrado en la figura 27.
La figura 1 ilustra esquemáticamente una primera realización del invento en la cual una señal F(t) de datos, generada por una fuente 1 de datos, se codifica dentro de una pista de audio de una fuente 3 de audio por un codificador 5 para formar una pista de audio modificada para un programa de televisión. En esta realización, la señal F(t) de datos transporta un Localizador Uniforme de Recursos (URL) que identifica una página web, accesible a través de Internet, asociada con el programa de televisión. La pista de audio modificada generada por el codificador 5 es combinada a continuación con la pista de video correspondiente, procedente de una fuente 7 de video, por un generador 9 de señal para formar una señal de televisión portadora del programa de televisión. En esta realización la fuente 1 de datos, la fuente 3 de audio, la fuente 7 de video y el codificador 5 están todos ellos situados en un índice de televisión y la señal de televisión es emitida por una red 11 de emisión convencional utilizando una señal 13 de radiofrecuencia.
La señal 13 de radiofrecuencia es detectada por una antena 15 de televisión que dirige la señal de televisión a un televisor 17 convencional. El televisor 17 tiene una pantalla (no representada) para mostrar la señal de la pista de video y un altavoz (no representado) para presentar como salida la pista de audio modificada como una señal acústica 19.
En esta realización,, y de acuerdo con la invención, un teléfono móvil 21 (al que se hace referencia algunas veces como teléfono celular) detecta la señal acústica 19 emitida por el televisor 17 utilizando un micrófono 23 que convierte la señal acústica detectada en una señal eléctrica correspondiente. El teléfono móvil 21 decodifica a continuación la señal eléctrica para recuperar la señal F(t) de datos. El teléfono móvil 21 tiene también componentes convencionales, tales como un altavoz 25, una antena 27 para comunicar con una red de telecomunicaciones móviles, una pantalla 29, un teclado 31 para introducir números y letras, y teclas 33 de menú para acceder a opciones de menú.
En esta realización, el teléfono móvil 21 es capaz de acceder a Internet utilizando el protocolo WAP (Protocolo de Aplicaciones Inalámbricas). Después de que la señal F(t) de datos ha sido recuperada por el teléfono móvil 21, en respuesta a un usuario que solicita información adicional sobre el programa de televisión que está siendo presentado por el televisor 17 seleccionando una opción de menú utilizando los botones 33 de menú, el teléfono móvil 21 transmite a una estación base 35, mediante señales 37 de radiofrecuencia, una solicitud para descargar la página web correspondiente al Localizador Uniforme de Recursos transportado por la señal F(t) de datos. La estación base 35 cursa la solicitud, a través de una red 39 de telecomunicaciones, al servidor 41 identificado en el Localizador Uniforme de Recursos transportado por la señal F(t) de datos. El servidor 41 recupera de una base 43 de datos la página web solicitada y transmite dicha página web al teléfono móvil 21 a través de la red 39 de telecomunicaciones y la estación base 35. El usuario es capaz entonces de leer la página web en la pantalla 29 y, por ejemplo, acceder a páginas web adicionales referenciadas en la página web solicitada o hacer una transacción para comprar un producto asociado con el programa de televisión
Como apreciarán los expertos en la técnica, una característica específica ventajosa del sistema de transmisión de señales descrito anteriormente es que pueden utilizarse redes de emisión de televisión convencionales, televisores, redes de comunicaciones móviles y páginas web, aunque se requieren un codificador 5 y un teléfono móvil 21 de nueva concepción.
La figura 2 muestra con más detalle los componentes principales del codificador 5 de la primera realización. La señal F(t) de datos es aplicada a una unidad 51 de corrección de error directo (FEC) que separa la señal F(t) de datos en bloques de 7 bits de datos y codifica cada bloque de 7 bits de datos utilizando un código de bloqueo (15.7), en particular un código BCH (Bose Chaudhuri and Hocquenghem), para formar un bloque de 15 bits de datos. Los expertos en la técnica apreciarán que los bits adicionales añadidos por el código BCH permiten detectar y corregir errores en la transmisión. En esta realización, la unidad 51 de corrección de error directo añade también un bit de sincronismo (al que se hace referencia en la presente memoria como bit SYNC) que tiene un valor “0” al principio de cada bloque de 15 bits de datos para generar una señal M(t) de datos modificada formada por cuadros de datos de 16 bits. En esta realización, la señal M(t) de datos modificada es una señal lógica que se genera aproximadamente a 7,8 bits por segundo.
Una característica específica ventajosa de la primera realización es que se utiliza una técnica de codificación de espectro disperso para dispersar la energía de la señal M(t) de datos modificada en un amplio intervalo de frecuencias. Esto tiene el efecto de hacer menos apreciable la señal de datos en la señal acústica 19 emitida por el televisor 17. En particular, si la señal M(t) de datos modificada se combina directamente con la pista de audio sin tal codificación, entonces es más probable que sea oída por el espectador del televisor 17.
En esta realización, se utiliza la codificación de espectro disperso de secuencia directa (DSSS) para dispersar la energía de la señal de datos en una banda de frecuencias ancha. Con el fin de realizar la codificación de espectro disperso de secuencia directa, se utiliza un primer generador 53a de código de ruido pseudoaleatorio para generar un código de ruido pseudoaleatorio PN0 y se utiliza un segundo generador 53b de código de ruido pseudoaleatorio para generar un código de ruido pseudoaleatorio PN1. Como apreciarán los expertos en la técnica de las telecomunicaciones, los códigos de ruido pseudoaleatorios son códigos binarios que aparentan ser de naturaleza completamente aleatoria, pero que son en realidad deterministas, es decir pueden ser reproducidos. En particular, estos códigos son generados por realimentación mediante puertas “O” exclusivas en registros síncronos. Por aplicación continuada de señales de reloj a los registros, el código de ruido pseudoaleatorio se reproduce cíclicamente. El número de registros, el tipo de registro utilizado en la vía de realimentación y el estado de inicialización de los registros determinan la longitud del código y el código específico de código generado.
En esta realización, los generadores 53 de código de ruido pseudoaleatorio tienen 12 registros y generan códigos de ruido pseudoaleatorios que tienen 4.095 bits (a los que se hará referencia posteriormente como chips utilizando la nomenclatura estándar en la técnica para distinguir los bits del código de ruido pseudoaleatorio de los bits de la señal de datos a dispersar) en una cadena de bits sin secuencia de más de doce chips repetida en los 4.095 chips. Se hace referencia a tal código de ruido pseudoaleatorio convencionalmente como un código de 12 bits después del número de registros utilizado para generarlo. Al final de cada cadena de 4.095 chips se añade un 0 binario para hacer que la longitud total de la cadena sea de 4.096 chips. En esta realización, el código de ruido pseudoaleatorio PN0 y el código de ruido pseudoaleatorio PN1 son ortogonales entre sí, y consiguientemente si son introducidos secuencialmente chip por chip en entradas respectivas de una puerta “O” exclusiva, entonces otra secuencia de ruido pseudo-aleatoria es generada por la puerta “O” exclusiva.
La salida del primer generador 53a de código de ruido pseudoaleatorio está conectada a una entrada no inversora de una primera puerta “Y” 55a, mientras que la salida de la unidad 51 de corrección de error directo está conectada a una entrada inversora de la primera puerta “Y” 55a. La salida de la unidad 51 de corrección de error directo está conectada también a una entrada no inversora de una segunda puerta “Y” 55b y la salida del segundo generador 53b de código de ruido pseudoaleatorio está conectada a una entrada no inversora de la segunda puerta “Y” 55b. Las salidas de la primera y segunda puertas “Y” 55 están conectadas entre sí para generar una señal I(t) de datos de dispersión que corresponde a la señal PN0 cuando el valor de la señal M(t) de datos modificada es 0 y corresponde al código de ruido pseudoaleatorio PN1 cuando el valor de la señal M(t) de datos modificada es 1.
En esta realización, cada código de ruido pseudoaleatorio es generado a una velocidad de 2.000 chips por segundo, de modo que cada bit de datos se multiplica por una secuencia de 256 chips y cada cuadro de datos se multiplica por
4.096 chips. Como cada cuadro de datos corresponde a un ciclo completo de los códigos de ruido pseudoaleatorios PN0 y PN1, el bit SYNC, que tiene un valor de datos de “0”, está representado siempre por la misma secuencia de 256 chips del código PN0 de ruido pseudoaleatorio. Esto permite a un decodificador sincronizarse más fácilmente con una secuencia de chips recibida.
La señal lógica I(t) se aplica a un modulador 57 que utiliza modulación por cifrado de desplazamiento de fase para modular una señal portadora de 2 kHz generada por un oscilador local (no mostrado) de acuerdo con el valor de la señal lógica I(t). En particular, la señal portadora es una señal digital que tiene una frecuencia de muestreo de 8 kHz y un valor de 16 bits por muestra. Cada chip de la señal lógica I(t) modula consiguientemente una secuencia de cuatro muestras de la señal portadora. En esta realización, el modulador 57 incluye un circuito de remuestreo (no mostrado) que muestrea nuevamente la señal modulada a la frecuencia de muestreo de la pista de audio, que en esta realización es de 22,05 kHz, para generar una señal modulada G(t).
El efecto de la codificación de espectro disperso se ilustra en la figura 3, que muestra una señal típica 71 de audio en el intervalo de frecuencias de 0 a 6 kHz, estando predominantemente concentrada la potencia, como es normalmente el caso, en las frecuencias más bajas. La figura 3 muestra también una señal 73 de datos modulada que resultaría si no se realizase la dispersión y la señal M(t) de datos modificada fuese modulada directamente por el modulador 57. Como se muestra, la señal 73 de datos modulada es una señal de banda estrecha centrada aproximadamente en 2 kHz y que tiene una potencia de pico significativamente superior al nivel de potencia de la señal 71 de audio a esa frecuencia. Sin embargo, si se realiza la dispersión de espectro así como la modulación, se obtiene una señal 75 de dispersión que tiene un espectro de potencia con una banda principal dispersada entre 0 y 4 kHz y bandas de armónicos a frecuencias más altas. Dado que la potencia de la señal 75 de dispersión está distribuida en una banda de frecuencias más ancha que la correspondiente a la señal 73 de datos modulada, el nivel de pico de potencia se reduce significativamente. Para muchas aplicaciones la señal 75 de dispersión no es apreciable para un oyente o solamente es oída como ruido blanco de fondo. Más aun, la mayor parte de la energía de la banda principal está localizada en un intervalo de frecuencias para el cual funcionan satisfactoriamente los altavoces de televisión más convencionales. No existe, por consiguiente, ningún requerimiento para que un usuario adquiera un televisor nuevo para aprovechar las ventajas del invento.
Volviendo a la figura 2, la señal modulada G(t) y la pista de audio se aplican a un mezclador 59 de audio donde se combinan para formar la pista de audio modificada. En particular, en el mezclador 59 de audio la señal modulada G(t) y la pista de audio se aplican a una unidad 61 de conformación que analiza el espectro de potencia de la pista de audio y modifica el espectro de potencia de la señal modulada G(t) dependiendo del espectro de potencia de la pista de audio para generar una señal conformada S(t) que resulta menos molesta cuando se combina con la pista de audio. La figura 4 representa con más detalle los componentes principales de la unidad 61 de conformación. La pista de audio, que en esta realización se genera a 22.050 muestras por segundo teniendo cada muestra un valor de 16 bits, se aplica a una primera unidad 81 de Transformada Rápida de Fourier (FFT) que divide la pista de audio en bloques de 2.048 muestras aplicando técnicas convencionales de solapamiento y delimitación por ventana. La primera unidad 81 de Transformada Rápida de Fourier mide para cada bloque la energía contenida en las 2.048 subbandas para generar 2.048 coeficientes que se aplican a una unidad 83 de escalado.
La unidad 83 de escalado aplica un algoritmo psico-acústico para generar factores de escalado para las 2.048 subbandas de frecuencia. En particular, la unidad de escalado incluye un filtro psico-acústico que genera, para cada subbanda de frecuencia de cada bloque de muestras, un factor de escala basado en la energía en esa subbanda y las subbandas de frecuencia vecinas para cada ese bloque de muestras y para los bloques de muestras vecinos precedentes y subsiguientes. La utilización de un algoritmo psico-acústico permite la utilización de niveles de señal más altos que los utilizados en caso de aplicar un algoritmo de escalado simple porque tiene en cuenta la variación dinámica de sensibilidad del oído humano en presencia de sonidos. Esto se explicará adicionalmente con referencia a la figura 5 que representa la sensibilidad de un oído humano típico para diferentes frecuencias (en otras palabras, los niveles mínimos de sonido para diferentes frecuencias que pueden ser oídos por un oído humano típico) sin ningún ruido de fondo (gráfico referenciado como 101) y en presencia de una señal 103 de banda estrecha (el gráfico de trazo discontinuo referenciado como 105). Como puede verse por la figura 5, la capacidad del oído humano para distinguir sonidos en el intervalo de frecuencias cubierta por la señal 103 de banda estrecha y en un intervalo de frecuencias por encima y por debajo de la de la señal 103 de banda estrecha se reduce significativamente. Por consiguiente, existen señales de audio que no pueden ser oídas por el oído humano en presencia de la señal 103 de banda estrecha, incluso aunque serían oídas si no estuviese presente la señal 103 de banda estrecha. En esta realización, el algoritmo psico-acústico utiliza descriptores de canal, que se almacenan en una memoria 85, para obtener una aproximación de cómo será modificada la pista de audio por la red 11 de emisión y el televisor 17 cuando se determinan los factores de escala para cada una de las 2.048 subbandas de frecuencia. Han sido investigadas anteriormente los algoritmos psico-acústicos para compresión de datos, puesto que los sonidos que no serían discernidos por un oyente pueden eliminarse de una cadena de datos de audio. Pueden encontrarse detalles adicionales acerca de la codificación psico-acústica en el artículo “Transform Coding of Audio Signals Using Perceptual Noise Criteria” de James D. Johnston, IEEE Journal on Selected Areas in Communications, Vol. 6, No. 2, February 1988.
La señal modulada G(t) se aplica a una segunda unidad 87 de Transformada Rápida de Fourier que, del mismo modo que la primera unidad 81 de Transformada Rápida de Fourier, divide la señal modulada G(t) en bloques de
2.048 muestras y genera 2.048 coeficientes correspondientes a la energía contenida en 2.048 subbandas de frecuencia para cada bloque. En esta realización, las 2.048 subbandas de frecuencia para la segunda unidad 87 de Transformada Rápida de Fourier coinciden con las 2.048 subbandas de frecuencia de la primera unidad 81 de Transformada Rápida de Fourier. Los 2.048 coeficientes que aparecen en la salida de la segunda unidad 87 de Transformada Rápida de Fourier y los 2.048 factores de escala generados por la unidad 83 de escalado se aplican a las entradas de un multiplicador 89 en el que el coeficiente correspondiente a cada subbanda de frecuencia de la señal modulada G(t) se multiplica por el correspondiente factor de escala para esa subbanda de frecuencia determinado a partir de la pista de audio. Los coeficientes escalados aparecen en la salida del multiplicador 89 se aplican a continuación a una unidad 91 de Transformada Rápida de Fourier Inversa (IFFT) que genera la señal conformada S(t) a partir de los coeficientes escalados, teniendo en cuenta la delimitación por ventana y el solapamiento.
Volviendo a la figura 2, la pista de audio se aplica también a una unidad 63 de retardo que retarda la pista de audio un período de tiempo correspondiente al tiempo requerido para que la unidad 61 de conformación genere la señal conformada S(t) utilizando la pista de audio. La pista de audio que aparece en la salida de la unidad 63 de retardo y la señal conformada S(t) se aplican a un sumador 65 que realiza una operación de suma lineal simple para combinarlas para formar la pista de audio modificada. La finalidad de la unidad 63 de retardo es asegurar que cada porción de la pista de audio se combina en el sumador 65 con la porción de la señal conformada S(t) que ha sido conformada de acuerdo con el espectro de potencia de esa porción de la pista de audio.
Como se ha descrito anteriormente, la señal de pista de audio modificada se combina con una señal de pista de video para formar una señal de televisión que se emite a continuación a través de una red 11 de emisión de señal de televisión convencional. Una antena 15 detecta la señal 13 de emisión de televisión y dirige una correspondiente señal eléctrica a un televisor 17 que emite una señal acústica 19 correspondiente a la pista de audio modificada utilizando un altavoz (no mostrado). La señal acústica 19 de salida es detectada entonces por el micrófono 23 del teléfono móvil 21.
La figura 6 representa con más detalle los componentes principales del teléfono móvil 21 de la primera realización de acuerdo con la invención. Como se muestra, el micrófono 23 del teléfono móvil 21 convierte la señal acústica 19 detectada en una señal eléctrica H(t) correspondiente que se aplica entonces a un filtro anti-solapamiento 111. La salida de señal filtrada por el filtro anti-solapamiento 111 se aplica a un convertidor 113 de analógico a digital (ADC) que convierte la señal filtrada en una señal digital correspondiente D(t) utilizando una frecuencia de muestreo de 8 kHz. La salida del convertidor 113 de analógico a digital está conectada a una entrada AUDIO_IN de un procesador
115.
Las señales digitales que aparecen a través de una salida AUDIO_OUT del procesador 115 se aplican a un convertidor 117 de digital a analógico (DAC) que convierte las señales digitales en señales analógicas correspondientes que son amplificadas entonces por un amplificador 119 antes de ser emitidas como ondas acústicas por el altavoz 25. Una salida DISP_OUT del procesador 115 está conectada a la pantalla 29, mientras que una entrada KEY_IN al procesador 115 está conectada al teclado 31. Una salida RF_OUT del procesador 115 está conectada a una unidad 121 procesadora de radiofrecuencia (RF) que procesa las señales digitales de banda base que aparecen en la salida del procesador 115 para formar señales de radiofrecuencia para emisión a través de una antena 27. La unidad 121 procesadora de radiofrecuencia procesa también señales de radiofrecuencia entrantes recibidas a través de la antena 27 para formar señales de banda base que son aplicadas a continuación a una entrada RF_IN del procesador 115.
Están también conectadas al procesador 115 una memoria 123 de acceso aleatorio (RAM), una memoria 125 de acceso aleatorio no volátil (NVRAM) y una memoria 127 de solo lectura (ROM). La memoria 125 de acceso aleatorio no volátil almacena datos asociados con el usuario del teléfono móvil 21, por ejemplo un listado telefónico de nombres y números de teléfono asociados de las personas a las que se llama usualmente, y la memoria 123 de acceso aleatorio proporciona un espacio de trabajo para ser utilizado durante el funcionamiento del procesador 115. La memoria 127 de solo lectura almacena rutinas que controlan el funcionamiento del procesador 115.
En particular, la memoria 127 de solo lectura almacena rutinas que permiten el funcionamiento del procesador en tres modos diferentes. En un modo llamada, que se activa cuando el teléfono móvil 21 se utiliza durante una llamada telefónica, las señales acústicas recibidas por el micrófono 23 son convertidas por el procesador 115 en señales de banda base que son transmitidas a la unidad 121 procesadora de radiofrecuencia y las señales de banda base entrantes que proceden de la unidad 121 procesadora de radiofrecuencia son convertidas en señales de audio que son emitidas por el altavoz 25. En un modo en espera, que es el modo por defecto cuando no se está realizando ninguna llamada telefónica, el procesador 115 espera bien una señal de radiofrecuencia que inicia una llamada que debe ser detectada por la antena 27, o bien por la pulsación de una de las teclas del teclado 31. En el modo en espera el procesador 115 no procesa las señales acústicas detectadas por el micrófono 23. El modo llamada y el modo en espera son modos convencionales de funcionamiento de un teléfono móvil. En el tercer modo, denominado a partir de ahora modo monitor, el procesador 115 procesa las señales acústicas 19 recibidas por el micrófono 23 para recuperar cualquier señal de datos embebida en la señal acústica 19, además de realizar las operaciones del modo de espera.
Se describirá ahora con más detalle el funcionamiento del procesador 115 en el modo monitor con referencia a las figuras 7A y 7B. La figura 7A es un diagrama de bloques esquemático que muestra la configuración funcional del procesador 115 durante el modo monitor, y la figura 7B representa un diagrama de flujo que ilustra las operaciones principales realizadas por el procesador 115 en el modo monitor. El modo monitor se inicia, en la operación S1, por el usuario que selecciona una opción de menú utilizando las teclas 33 de menú. Una vez que ha sido iniciado el modo monitor, el procesador 115 recibe, en la operación S3, la señal digital correspondiente D(t) que transporta datos de audio procedente del micrófono 23 a través de la entrada AUDIO_IN del procesador 115.
La señal digital D(t) es procesada a continuación por un demodulador 130 que demodula la señal digital D(t), en la operación S5, utilizando técnicas de procesamiento de señal digital convencionales. La señal digital demodulada es procesada entonces por un módulo 131 de desactivación de dispersión que deshace la dispersión de los datos de audio en la operación S7. Esta operación implica la monitorización de la secuencia de chips correspondiente al bit SYNC que, cuando es detectado, es procesado para determinar la temporización de la secuencia de chips recibida y la ligera desviación de frecuencia entre la velocidad de transmisión de chips de la secuencia de chips recibida y la velocidad de transmisión de chips de los códigos de ruido pseudoaleatorios generados en el teléfono móvil 21. En general, existirá una pequeña desviación de frecuencia que se debe a tres causas principales. La primera causa es que muchos medios de trasmisión varían ligeramente la frecuencia de transmisión de la pista de audio, variando así la velocidad de transmisión de la secuencia de chips que transporta la pista de audio. La segunda causa es que pueden producirse efectos Doppler, por ejemplo debido al movimiento del teléfono móvil 21, que afectan a la velocidad de transmisión de chips en la señal detectada. Finalmente, la tercera causa principal es que existe siempre una pequeña diferencia entre las frecuencias de reloj para generar los códigos de ruido pseudoaleatorios en el codificador 5 y el teléfono móvil 21. El módulo 131 de desactivación de dispersión es capaz entonces de determinar a partir de la secuencia de chips recibida las transiciones entre los códigos PN0 y PN1 de ruido pseudoaleatorio, recuperándose así la señal de datos modificada.
La señal de datos modificada recuperada es procesada a continuación por un regenerador 132 de señal de datos que recupera, en la operación S9, la señal F(t) de datos original eliminando el bit de sincronismo y decodificando el código BCH (15, 7) restante, recuperando así el Localizador Uniforme de Recursos asociado con el programa de televisión. Después de haber sido recuperado el Localizador Uniforme de Recursos, el regenerador 132 de señal de datos entrega, en la operación S11, una señal a un generador 133 de señal que envía una señal de control a un controlador 134 de visualización que emite a su vez una señal de control hacia la pantalla 29 haciendo que esta última muestre un indicador de recepción de mensaje. El indicador de mensaje recibido permite al usuario del teléfono móvil 21 ver que está disponible en Internet información adicional relativa al programa de televisión. El regenerador 132 de señal de datos almacena también el Localizador Uniforme de Recursos en la memoria 123 de acceso aleatorio.
El procesador 115 espera entonces, en la operación S13, a que el usuario solicite información adicional. Si el usuario no solicita información adicional dentro de un tiempo prefijado, la rutina retorna a la operación S3. Sin embargo, si el usuario selecciona la opción de menú correspondiente a solicitar información adicional, entonces esta selección se introduce en la interfaz 135 de teclado que envía una señal a un navegador 136 que hace que este último acceda, en la operación S15, a la página web correspondiente al Localizador Uniforme de Recursos transportado por la señal F(t) de datos originales. En particular, el navegador recupera el Localizador Uniforme de Recursos de la memoria 123 de acceso aleatorio y emite una señal de banda base a través de la salida RF_OUT que es convertida en una señal de radiofrecuencia por la unidad 121 procesadora de radiofrecuencia y es emitida por la antena 27.
Subsiguientemente, una señal de radiofrecuencia que transporta datos de página web relativa a la dirección IP (Protocolo de Internet) es detectada por la antena 27 y es convertida en una señal de banda base por la unidad 121 procesadora de radiofrecuencia, y la señal de banda base se aplica a la entrada RF_IN del procesador 115. En el procesador 115, los datos de la página web son procesados por el navegador 136 que envía los datos de la página web al controlador 134 de visualización que a su vez genera en su salida, en la operación S17, una señal de control que hace que la pantalla 29 visualice la página web recibida.
Los expertos en la técnica apreciarán que los procesadores utilizados típicamente en teléfonos móviles digitales son muy adecuados para ser programados para realizar el procesamiento de señal digital requerido en el modo monitor.
Como se ha descrito anteriormente, en la primera realización un teléfono móvil 21 recupera de la señal acústica 19 correspondiente a la pista de audio de un programa de televisión una dirección de Protocolo de Internet para una página web asociada con ese programa, de modo que el usuario del teléfono móvil puede descargar información adicional relativa al programa de televisión. Utilizando técnicas de codificación de espectro disperso para generar una señal de dispersión y conformando la señal de dispersión dependiendo del espectro de potencia de la pista de audio, los datos embebidos en la pista de audio pueden ocultarse de un oyente. Una ventaja de codificar la señal de datos dentro de una señal de audio es que el ancho de banda requerido para transmitir electrónicamente la pista de audio después de haber sido codificada la señal de datos no es mayor en este caso que el ancho de banda requerido para transmitir la propia pista de audio.
En la primera realización, una señal portadora de 2 kHz es modulada utilizando modulación por cifrado de desplazamiento de fase de acuerdo con la señal lógica I(t) para generar una señal modulada G(t) de dispersión que tiene un espectro de potencia con una dispersión de banda principal comprendida entre 0 y 4 kHz. Sin embargo, el espectro de energía de la pista de audio podría concentrarse en un intervalo de frecuencia alejado de 2 kHz, en cuyo caso el nivel de potencia de la señal conformada (y por tanto la relación señal a ruido) necesita tener un valor bajo si no se desea que la señal de datos sea percibida por un oyente. Se describirá ahora una segunda realización con referencia a las figuras 8 y 9, en las cuales el codificador de la primera realización está sustituido por un codificador alternativo en el cual se varía la frecuencia de la onda portadora de acuerdo con el espectro de frecuencia de la pista de audio, y los programas almacenados en la memoria de solo lectura del teléfono móvil están modificados para tener en cuenta esta variación de frecuencia durante la decodificación. Los componentes restantes del sistema de transmisión de señales de la segunda realización son idénticos a los de la primera realización y consiguientemente no se describirán otra vez.
La figura 8 muestra los componentes principales del codificador 163 de la segunda realización. En la figura 8, los componentes idénticos a los componentes correspondientes de la primera realización han sido referenciados con los mismos números y no se describirán nuevamente. Como se muestra, la pista de audio se aplica a la entrada de un analizador 164 de espectro que vigila el espectro de frecuencia de la pista de audio. En particular, el analizador 164 de espectro monitoriza la energía contenida en 2.048 subbandas de frecuencia, cada una correspondiente a 10 Hz, y determina el conjunto de 200 subbandas de frecuencia adyacentes que tiene la máxima energía. El analizador 164 de espectro emite entonces una señal de control para que un modulador 165 ajuste la frecuencia del oscilador local de modo que la señal portadora ocupe el centro del intervalo de frecuencias correspondiente al conjunto identificado de subbandas de frecuencia. La señal modulada G(t) emitida por el modulador 165 es conformada a continuación y combinada con la pista de audio para formar la pista de audio modificada del mismo modo descrito anteriormente en la primera realización.
En esta realización, el teléfono móvil responde sustancialmente al componente descrito en la primera realización con la excepción de que cuando el procesador está configurado para el modo monitor, el demodulador 130 representado en la figura 7A está realmente sustituido por el módulo demodulador 166 ilustrado en la figura 9. Como se muestra, la señal digital D(t) recibida en la entrada AUDIO_IN es procesada por un analizador 167 de espectro que determina, del mismo modo que el analizador 164 de espectro, el espectro de frecuencia de la señal digital D(t) y genera una señal que identifica la frecuencia central. La señal digital D(t) es también retardada por un módulo 168 de retardo y procesada entonces por un demodulador 169 cuya frecuencia portadora está controlada por la señal entregada por el analizador 167 de espectro para igualarse a la frecuencia central. La finalidad de la unidad 168 de retardo es asegurar que cada parte de la señal D(t) digital es demodulada utilizando la frecuencia portadora calculada para esa parte. La señal demodulada generada por el demodulador 169 es procesada por el módulo 131 de desactivación de dispersión y el proceso continúa como se ha descrito con referencia a las figuras 7A y 7B.
En esta realización, la frecuencia portadora se varía de modo que la banda principal de la señal modulada G(t) se desplaza hacia un intervalo de frecuencias en el cual la energía de la pista de audio es relativamente grande. Esto tiene el efecto de que los factores de escala determinados por la unidad 61 de conformación son generalmente mayores que los correspondientes al caso en que la frecuencia portadora se mantuviese constante. De este modo, se aumenta la potencia de la señal conformada S(t).
En la primera y segunda realizaciones, la señal modulada G(t) se combina con la pista de audio después de haber sido escalada con el fin de reducir su percepción en la pista de audio modificada. Se describirá ahora una tercera realización con referencia a las figuras 10 y 11, en las cuales el codificador de la primera realización se ha sustituido por un codificador alternativo que elimina parte de la pista de audio, conforma la señal modulada G(t) para obtener una aproximación de la parte eliminada de la pista de audio, y suma a continuación la señal conformada a la parte restante de la pista de audio. Los componentes restantes del sistema de transmisión de señales de la tercera realización son idénticos a los de la primera realización y consiguientemente no se describirán nuevamente.
La figura 10 muestra los componentes principales del mezclador 171 de audio de la tercera realización. Como se muestra, la pista de audio se aplica a una unidad 173 de codificación predictiva lineal (LPC) que utiliza técnicas convencionales de codificación por predicción lineal para analizar la pista de audio. La codificación predictiva lineal aprovecha la ventaja del hecho de que para muchos sonidos la potencia en cualquier instante es fuertemente dependiente de la potencia en los instantes precedentes con el fin de generar un pequeño número de coeficientes de predicción lineal (LP), denominados algunas veces predictores, a partir de los cuales puede reproducirse el sonido. En particular, se analiza un bloque de muestras para determinar los coeficientes a1, a2, … an de predicción lineal que, cuando se utilizan en la ecuación:
sk() ask ( 1) ( 2)... ask n)
ask ( () k(1)
12 n
donde s(k) es el valor de la muestra de orden k, proporcionan el conjunto más pequeño de valores x(k) de error para el bloque.
En esta realización, la unidad 173 de codificación predictiva lineal divide la pista de audio en bloques de 2.048 muestras y determina, utilizando un algoritmo de máxima verosimilitud, un conjunto de diez coeficientes de predicción lineal para cada bloque. Estos diez coeficientes de predicción lineal modelan (mediante la ecuación (1) más arriba) los componentes tonales de la pista de audio a regenerar. Los coeficientes de predicción lineal determinados aparecen en la salida de la unidad 173 de codificación predictiva lineal y se aplican a una unidad 175 de síntesis convencional que sintetiza para cada muestra, utilizando los coeficientes de predicción lineal y la ecuación anterior (1), un valor de muestra predicha correspondiente a s(k)(k). La secuencia de valores predichos generada por la unidad 175 de síntesis forma una parte tonal P(t) de la pista de audio.
La pista de audio se aplica también a una unidad 177 de retardo que introduce un retardo temporal correspondiente al tiempo de procesamiento requerido para analizar la pista de audio en la unidad 173 de codificación predictiva lineal y para sintetizar la parte tonal P(t) en la unidad 175 de síntesis. La salida de la unidad 177 de retardo y la salida de la unidad 175 de síntesis se aplican a un restador 179 en el cual la parte tonal P(t) es restada muestra por muestra de la pista de audio real de modo que el restador 179 presenta en su salida una parte N(t) de ruido que corresponde a los valores (k) de error, en otras palabras la parte aleatoria de la pista de audio (a la que se hace referencia algunas veces como residuo, parte residual o parte atonal).
La parte N(t) de ruido se aplica como entrada a una primera unidad 181 de Transformada Rápida de Fourier que divide la parte N(t) de ruido en bloques, cada uno de los cuales tiene 2.048 muestras, utilizando técnicas convencionales de delimitación por ventana y solapamiento, y genera para cada bloque 2.048 coeficientes dependientes de la frecuencia correspondientes a la energía contenida en 2.048 subbandas de frecuencia. Similarmente, la señal modulada G(t) se aplica a una segunda unidad 183 de Transformada Rápida de Fourier que, del mismo modo que la primera unidad 181 de Transformada Rápida de Fourier, divide la señal modulada G(t) en bloques de 2.048 muestras y genera 2.048 coeficientes correspondientes a la energía contenida en 2.048 subbandas de frecuencia para cada bloque. Los 2.048 coeficientes generados por la segunda unidad 183 de Transformada Rápida de Fourier se aplican a un multiplicador 185. Los 2.048 coeficientes generados por la primera unidad 181 de Transformada Rápida de Fourier se aplican a una unidad 187 de escalado que calcula y emite 2.048 factores de escala que se aplican como entrada al multiplicador 185 en el que el coeficiente correspondiente a cada subbanda de frecuencia de la señal modulada G(t) se multiplica por el factor de escala correspondiente para esa subbanda de frecuencia determinada por la parte N(t) de ruido. La unidad 187 de escalado aplica un algoritmo de escalado para calcular los factores de escala de modo que cuando los coeficientes escalados generados por el multiplicador 185 se aplican a una unidad 189 de Transformada Rápida de Fourier Inversa, que genera una señal conformada S(t) utilizando los coeficientes escalados, la señal conformada S(t) es una aproximación de la parte N(t) de ruido.
La parte tonal P(t) que presenta en su salida la unidad 175 de síntesis se aplica también a una unidad 191 de retardo que retarda la parte tonal P(t) en un tiempo correspondiente al requerido para generar y procesar la parte N(t) de ruido y para escalar la señal modulada G(t) utilizando la parte N(t) de ruido para generar la señal conformada S(t). La salida de la unidad 191 de retardo y la señal conformada S(t) se aplican a continuación a un sumador 193 que realiza una operación de suma lineal para generar la pista de audio modificada. De este modo, la parte N(t) de ruido de la pista de audio es sustituida por una versión de la señal modulada G(t) que ha sido conformada para aproximarse a la parte N(t) de ruido de la pista de audio con el fin de formar la pista de audio modificada.
Las figuras 11A a 11F son gráficos que ilustran las señales presentes en diferentes puntos en el mezclador 171 de audio. La figura 11A muestra la pista de audio que se aplica al mezclador 171 de audio. La figura 11B representa la parte tonal P(t) que aparece en la salida de la unidad 175 de síntesis y la figura 11C muestra la parte N(t) de ruido que se obtiene restando la parte tonal P(t) de la pista de audio. La figura 11D representa la señal modulada G(t) aplicada al mezclador 171 de audio y la figura 11E muestra la señal conformada S(t) generada por la unidad 191 de Transformada Rápida de Fourier Inversa. La figura 11F muestra la pista de audio modificada formada sumando la parte tonal P(t) que se muestra en la figura 11B y la señal conformada S(t) ilustrada en la figura 11E. Una comparación de las figuras 11A y 11F muestra que el perfil de la pista de audio modificada es aproximadamente el mismo perfil de la pista de audio original.
En la tercera realización, la parte de ruido de la pista de audio, que está asociada particularmente con sonidos de silbido, se elimina de la pista de audio y se sustituye por la señal conformada S(t). Se describirá ahora una cuarta realización del invento con referencia a la figura 12, en la cual el codificador de la primera realización está sustituido por un codificador que modifica las amplitudes relativas de la pista de audio y la señal conformada dependiendo del nivel de tonalidad de la pista de audio. Los componentes restantes de la cuarta realización son idénticos a los de la primera realización, y consiguientemente no se describirán nuevamente.
La figura 12 muestra los componentes principales del mezclador 195 de audio de la cuarta realización. Como se muestra, la pista de audio se aplica a una primera unidad 197 de Transformada Rápida de Fourier que divide la pista de audio en bloques de 2.048 muestras utilizando técnicas convencionales de solapamiento y delimitación por ventana y, para cada bloque, determina la energía en 2.048 subbandas de frecuencia para generar 2.048 coeficientes que se generan como salida para su aplicación a una unidad 199 de escalado y un analizador 201 de espectro. La unidad 199 de escalado aplica el mismo algoritmo de escalado utilizado en la tercera realización para generar 2.048 factores de escala que se entregan a un multiplicador 203.
La señal modulada G(t) se aplica a una segunda unidad 205 de Transformada Rápida de Fourier que, del mismo modo que la primera unidad 197 de Transformada Rápida de Fourier, divide la señal modulada G(t) en bloques de
2.048 muestras y genera para cada bloque 2.048 coeficientes correspondientes a la energía contenida en 2.048 subbandas de frecuencia que se corresponden con las subbandas de frecuencia para la primera unidad de Transformada Rápida de Fourier. Los 2.048 coeficientes generados por la segunda unidad 205 de Transformada Rápida de Fourier se aplican al multiplicador 203 en el que cada coeficiente se multiplica por el factor de escala, generado por la unidad 199 de escalado, para su respectiva subbanda de frecuencia. Los 2.048 coeficientes escalados que aparecen en la salida del multiplicador 203 se aplican a una unidad 207 de Transformada Rápida de Fourier Inversa que genera la señal conformada S(t) a partir de los coeficientes afectados por el factor de escala.
El analizador 201 de espectro determina el nivel de tonalidad de cada bloque de la pista de audio a partir de los
2.048 coeficientes generados por la primera unidad 197 de Transformada Rápida de Fourier. En particular, esto se consigue analizando estadísticamente los 2.048 coeficientes para determinar si está presente una señal tonal, lo cual será indicado por picos en un pequeño número de subbandas de frecuencia, o si no está presente ninguna señal tonal, en cuyo caso los coeficientes de frecuencia para las subbandas variarán más aleatoriamente. El analizador 201 de espectro genera entonces una señal indicativa del nivel de tonalidad que, en este caso, es un número binario de cuatro bits que varía desde 0000, cuando la pista de audio es una señal casi puramente ruidosa, hasta 1111 cuando la pista de audio es casi puramente tonal.
La pista de audio se aplica también a una unidad 209 de retardo que retarda la pista de audio en un tiempo correspondiente al tiempo requerido para analizar una porción de la pista de audio y generar la señal conformada S(t) para esa porción. La salida de la unidad 209 de retardo, que es la señal conformada S(t), y el número binario de cuatro bits generado por el analizador 201 de espectro, se aplican a puertos de entrada respectivos de un combinador variable 211. En el combinador variable 211, la pista de audio retardada se aplica a un amplificador variable 213a en el que es multiplicada por un factor G de ganancia determinado a partir del número de cuatro bits que aparece en la salida del analizador 201 de espectro y la señal conformada S(t) se aplica a un segundo amplificador variable 213b en el que es multiplicada por un factor de ganancia de (1-G). Las salidas del primer y segundo amplificadores variables 213 son sumadas a continuación por un sumador 215 para generar la pista de audio modificada.
En la cuarta realización, la pista de audio y la señal conformada S(t) son ponderadas de acuerdo con el nivel de tonalidad y se suman a continuación para formar la pista de audio modificada. En particular, cuanto mayor sea la componente ruidosa de la pista de audio mayor será la proporción de la pista de audio modificada que esté formada por la señal conformada S(t). Más aun, en la tercera realización la parte ruidosa de la pista de audio se elimina y se sustituye por la señal conformada S(t). Sin embargo, un problema relacionado con la tercera y cuarta realizaciones es que si la pista de audio es muy tonal, entonces la parte ruidosa es pequeña y la señal conformada S(t) no puede sumarse con niveles de señal suficientemente altos para que sea decodificada fiablemente en el decodificador. Por consiguiente, si la pista de audio es muy tonal, se prefiere la técnica de conformación psico-acústica descrita en la primera realización.
Se describirá ahora una quinta realización con referencia a la figura 13, en la cual el codificador de la primera realización está sustituido por un codificador alternativo que combina la técnica de conformación psico-acústica descrita en la primera realización, la técnica de codificación predictiva lineal descrita en la tercera realización y la técnica de ponderación descrita en la cuarta realización. En el codificador de la quinta realización, un usuario es capaz de ajustar parámetros que determinan la naturaleza de la codificación. Esto es ventajoso porque la capacidad de enmascaramiento de la pista de audio es subjetiva y, por consiguiente, se obtiene un enmascaramiento de mejor calidad si el usuario puede ajustar los parámetros de codificación que si los parámetros de codificación se ajustasen automáticamente. Los componentes restantes de la quinta realización son idénticos a los de la primera realización y consiguientemente no se describirán nuevamente.
La figura 13 muestra los componentes principales del mezclador 217 de audio de la quinta realización. Los componentes idénticos como componentes correspondientes en el mezclador de audio de la tercera realización han sido referenciados por los mismos números de referencia y no se describirán nuevamente. Como se muestra, la pista de audio se aplica a la unidad 173 de codificación predictiva lineal que determina y genera en su salida coeficientes de predicción lineal correspondientes a la parte tonal P(t) para bloques secuenciales de 2.048 muestras. En esta realización, está dispuesta una interfaz 218 de usuario a través de la cual un usuario puede ajustar el número de coeficientes de predicción lineal utilizados en la unidad 173 de codificación predictiva lineal. En respuesta al ajuste del número de coeficientes de predicción lineal por parte del usuario, la interfaz 218 de usuario genera una señal de control para la unidad 173 de codificación predictiva lineal que hace que la unidad 173 de codificación predictiva lineal utilice el número seleccionado de coeficientes de predicción lineal.
Como en la tercera realización, la parte N(t) de ruido se obtiene aplicando los coeficientes de predicción lineal generados por la unidad 173 de codificación predictiva lineal a una unidad 175 de síntesis con el fin de generar la parte tonal P(t), y restando a continuación la parte tonal P(t) de la pista de audio utilizando el restador 179. En esta realización, la parte ruidosa N(t) se aplica, a través de una unidad 219 de retardo, a un primer puerto de entrada de un combinador variable 220 así como a la primera unidad 181 de Transformada Rápida de Fourier.
Los coeficientes generados por la primera unidad 181 de Transformada Rápida de Fourier se aplican a una unidad 221 de escalado que aplica un algoritmo psico-acústico, utilizando descriptores de canal tomados de una memoria 222 de descriptores de canal, para generar 2.048 factores de escala que se aplican al multiplicador 185 para multiplicar unos coeficientes respectivos de los 2.048 coeficientes generados por la segunda unidad 183 de Transformada Rápida de Fourier para generar los coeficientes escalados para formar la señal conformada S(t). En esta realización, el usuario es capaz de ajustar el nivel de la codificación psico-acústica a través de la interfaz 218 de usuario. En particular, la unidad de escalado aplica un filtro psico-acústico y, en respuesta al ajuste del nivel de la codificación psico-acústica por parte del usuario, la interfaz de usuario transmite una señal de control que determina el ancho de banda del filtro psico-acústico (es decir, el número de subbandas de frecuencia vecinas y bloques de muestras de datos cuya energía se tiene en cuenta cuando se determinan los factores de escala). Si se desea el nivel más alto de codificación psico-acústica, entonces el ancho de banda se ajusta de modo que la unidad 221 de escalado actúe efectivamente del mismo modo que la unidad de escalado de la primera realización. Sin embargo, si se desea el nivel más bajo de codificación psico-acústica, entonces el ancho de banda se ajusta de modo que la unidad 221 de escalado actúe efectivamente del mismo modo que la unidad de escalado de la tercera realización.
La señal conformada S(t) generada por la unidad 189 de Transformada Rápida de Fourier Inversa se aplica a un segundo puerto de entrada del combinador variable 220. En esta realización, un usuario es capaz de seleccionar, utilizando la interfaz 218 de usuario, el factor G de ganancia utilizado en el combinador variable 220, en respuesta al cual la interfaz 218 de usuario genera en su salida una señal que se aplica a un tercer puerto de entrada del combinador variable 220. En el combinador variable 220 la parte ruidosa N(t) retardada se aplica a un amplificador variable 223a en el que se multiplica por el factor G de ganancia, y la señal conformada S(t) se aplica como entrada a un segundo amplificador variable 223b en el que se multiplica por un factor (1-G) de ganancia. Las salidas del primer y segundo amplificadores variables 223 son sumadas a continuación por un sumador 224 para formar una parte ruidosa N’(t) modificada. La finalidad de la unidad 219 de retardo es asegurar que cada porción de la parte ruidosa N(t) es combinada en el combinador variable 220 con la porción de la señal conformada S(t) que fue conformada utilizando esa porción de la parte ruidosa N(t).
La parte tonal P(t) que presenta en su salida la unidad 175 de síntesis se aplica, a través de una unidad 225 de retardo, al sumador 195 junto con la salida del combinador variable 220. El sumador 195 realiza una suma lineal simple para generar la pista de audio modificada. La finalidad de la unidad 225 de retardo es asegurar que la parte tonal P(t) está sincronizada con la parte ruidosa N’(t) modificada.
En esta realización, el mezclador 217 de audio permite que un usuario ajuste la codificación de acuerdo con la tonalidad de la pista de audio para mejorar el efecto de enmascaramiento de los datos por parte de la pista de audio. Por ejemplo, si existe solamente una pequeña porción atonal en la pista de audio, el usuario puede reducir el número de coeficientes de predicción lineal utilizados por la unidad 173 de codificación predictiva lineal con el fin de aumentar la energía de la parte ruidosa N(t) porque la unidad 173 de codificación predictiva lineal modela una porción menor de la pista de audio. La reducción del número de coeficientes de predicción lineal tiene también el efecto de aumentar las características tonales dentro de la parte ruidosa N(t). En el caso extremo, el número de coeficientes de predicción lineal puede ajustarse a 0 de modo que la parte ruidosa N(t) sea idéntica a la correspondiente a la pista de audio. A medida que aumentan las características tonales en la parte ruidosa N(t), el usuario puede ajustar la unidad 221 de escalado para aplicar un filtro psico-acústico de mayor ancho de banda para aprovechar la ventaja de la capacidad de enmascaramiento de estas características tonales. El usuario puede ajustar subsiguientemente el factor G de ganancia del combinador variable a 0,9 de modo que el 90% de la parte ruidosa N’(t) modificada esté formado por la parte ruidosa N(t) y el 10% de la parte ruidosa N’(t) modificada esté formado por la señal conformada S(t). Sin embargo, si la pista de audio es predominantemente atonal, entonces el usuario puede aumentar el número de coeficientes utilizados por la unidad 173 de codificación predictiva lineal, disminuir el ancho de banda del filtro psico-acústico aplicado por la unidad 221 de escalado y ajustar el valor del factor G de ganancia del combinador variable 220 a cero, de modo que la parte ruidosa N’(t) modificada es idéntica a la señal conformada S(t).
En esta realización el usuario puede ajustar libremente el número de coeficientes de la unidad 173 de codificación predictiva lineal, el ancho de banda del filtro psico-acústico y el factor G de ganancia. Esto permite al usuario determinar, para una relación señal a ruido requerida, el ajuste de parámetros para el cual la pista de audio modificada es, en opinión del usuario, lo más parecida posible a la pista de audio original.
En las realizaciones primera a quinta, una señal de datos que transporta un Localizador Uniforme de Recursos que identifica un sitio web asociado con un programa de televisión, se aplica a un codificador en el cual la señal de datos se dispersa y se mezcla con la pista de audio para el programa de televisión antes de que el programa de televisión sea emitido a través de una red de televisión convencional. Un teléfono móvil recupera entonces el Localizador Uniforme de Recursos a partir de las señales acústicas emitidas por un televisor sintonizado con el programa de televisión, de modo que el usuario del teléfono móvil, si lo desea, puede descargar la página web al teléfono móvil. Las realizaciones primera a quinta describen diferentes técnicas para codificar la señal de datos dentro de la pista de audio.
Se describirán ahora realizaciones alternativas en las cuales el codificador está incorporado en un teléfono móvil, de modo que puede codificarse una cadena de datos dentro de la señal acústica emitida por el teléfono móvil.
La figura 14 ilustra una sexta realización del invento en la cual un primer teléfono móvil 401_1 emite por un altavoz 25_1 una señal acústica 403 que tiene codificados datos de usuario asociados con el usuario del primer teléfono móvil 401_1. En esta realización, los datos de usuario incluyen el nombre del usuario y el número de teléfono del primer teléfono móvil 401_1. La señal acústica 403 emitida es detectada por un segundo teléfono móvil 401_2, utilizando un micrófono 23_2, y el segundo teléfono móvil 401_2 decodifica entonces y almacena los datos de usuario. En particular, el nombre del usuario del primer teléfono móvil 401_1 se almacena junto con el número de teléfono del primer teléfono móvil en una “agenda telefónica” almacenada en el segundo teléfono móvil 401_2. Similarmente, el segundo teléfono móvil 401_2 emite por un altavoz 25_2 una señal acústica que transporta datos de usuario asociados con el usuario del segundo teléfono móvil 401_2 para detección y decodificación por parte del primer teléfono móvil 401_1.
Se apreciará que la transmisión de datos de usuario de este modo elimina el requerimiento de introducir nombres y números telefónicos a través del teclado 31 del teléfono móvil 401, proceso que es en general lento y molesto porque las teclas del teclado 31 son pequeñas.
La figura 15 ilustra esquemáticamente los componentes principales del teléfono móvil 401 de la sexta realización. En la figura 15, los componentes idénticos a los correspondientes al teléfono móvil de la primera realización han sido referenciados con los mismos números de referencia y no serán descritos de nuevo.
Como se muestra, en esta realización el procesador 411 del teléfono móvil 401 tiene una salida AUDIO_OUT y una salida DATA_OUT que están conectadas a entradas respectivas de un codificador 413. En esta realización, la única diferencia entre el codificador 413 y el codificador de la primera realización es que el modulador del codificador 413 no incluye un circuito de remuestreo debido a que la señal digital generada a través de la salida AUDIO_OUT del procesador 411 tiene una frecuencia de muestreo de 8 kHz. La salida del codificador 413 está conectada a la entrada del convertidor 117 de digital a analógico. De este modo, los datos de usuario generados a través de la salida DATA_OUT del procesador 411 se codifican dentro de una pista de audio generada por la salida AUDIO_OUT para conformar una pista de audio modificada.
En el teléfono móvil 401 de esta realización, la señal digital D(t) generada por el convertidor 113 de analógico a digital se aplica a la entrada de un decodificador 415 así como a la entrada AUDIO_IN del procesador 411. En esta realización, el decodificador 415 es sustancialmente similar al descrito en el documento de Patente Internacional WO 01/10065. El decodificador 415 recupera datos de usuario codificados en la señal digital D(t) y entrega los datos de usuario recuperados a la entrada DATA_IN del procesador 411. De este modo, los datos de usuario transportados por una señal acústica de otro teléfono móvil 401 pueden ser decodificados para su procesamiento por el procesador
411.
En esta realización, los datos de usuario asociados con el usuario del teléfono móvil 401 se almacenan en la memoria 125 de acceso aleatorio no volátil, y la memoria 127 de solo lectura almacena una subrutina que, en respuesta a la selección por parte del usuario de una opción de menú utilizando las teclas de menú 33, hace que el procesador 411 genere, a través de la salida DATA_OUT, los datos de usuario y que genere, a través de la salida AUDIO_OUT, una secuencia de audio prefijada. El propósito de la secuencia de audio prefijada es proporcionar al usuario una indicación audible de que está teniendo lugar la transferencia de datos. En el codificador 413, los datos de usuario son dispersados, modulados y conformados como se describe en la primera realización antes de ser sumados a la secuencia de audio prefijada para formar una secuencia de audio modificada. La secuencia de audio modificada generada por el codificador 413 es aplicada en la entrada del convertidor 117 de digital a analógico donde se convierte en una señal analógica que es amplificada por el amplificador 119 y emitida como una señal acústica por el altavoz 25.
Cuando el teléfono móvil 401 detecta, utilizando el micrófono 23, una onda acústica que transporta datos de usuario, los datos de usuario son decodificados por el decodificador 415 y aplicados, a través de la entrada DATA_IN, al procesador 411. En respuesta a la entrada de datos de usuario, el procesador 411 ejecuta una subrutina almacenada en la memoria 127 de solo lectura que extrae de los datos de usuario el nombre del usuario y el número de teléfono y almacena el nombre de usuario y el número de teléfono extraídos como una entrada en una tabla de búsqueda dentro de la memoria 125 de acceso aleatorio no volátil. En esta realización, la memoria 125 de acceso aleatorio no volátil puede almacenar hasta 100 entradas que constituyen una agenda telefónica electrónica.
En la sexta realización, los datos son transferidos entre dos teléfonos móviles 401 a través de un enlace de comunicaciones acústico. Sin embargo, los teléfonos móviles podrían también utilizar un enlace de comunicaciones acústico para transmitir señales de datos a otros dispositivos electrónicos. Se describirá ahora una séptima realización con referencia a las figuras 16 a 19 en la que un teléfono móvil codifica una señal de control dentro de una señal acústica emitida; un juguete detecta la señal acústica, recupera la señal de control y responde de acuerdo con la señal de control de una manera discernible por los humanos.
Como se muestra en la figura 16, un usuario 423 que realiza una llamada utiliza un microteléfono 427, conectado a una red 429 de telecomunicaciones, para llamar al usuario (no mostrado) del teléfono móvil 421. La llamada es enrutada por la red de telecomunicaciones a una estación base 431, que cubre el área en la que el teléfono móvil 421 está situado en la actualidad, y la estación base 431 general una señal 433 de radiofrecuencia que es detectada por la antena del teléfono móvil 421. Datos de identificación del número de teléfono del microteléfono 427 están incluidos en la señal de radiofrecuencia 433. Los expertos en la técnica apreciarán que dichos datos de identificación se envían en muchos sistemas telefónicos convencionales. En esta realización, el teléfono móvil 421 determina el número de teléfono del microteléfono 427 a partir de la señal de radiofrecuencia 433 entrante, recupera de una tabla de búsqueda un identificador de señal de control asociado con el número de teléfono determinado, y codifica la señal de control correspondiente al identificador de señal de control dentro de un tono de llamada que es regenerado como una señal acústica 435.
En esta realización, la señal acústica 435 es detectada por un micrófono 437 en un juguete electrónico 425. Como se muestra en la figura 16, el juguete electrónico 425 incluye dos brazos 439a, 439b y una cara formada por: una nariz 441; dos ojos 443a, 443b; una boca articulada 445; y 2 cejas articuladas 447a, 447b. El juguete electrónico 425 también incluye un altavoz 449. El juguete 425 decodifica la señal de control existente dentro del tono de llamada emitido por el teléfono móvil 421 y responde generando un sonido a través del altavoz 449 y moviendo la boca 445 y las cejas 447 para adoptar una expresión concordante con la señal de control recuperada.
La figura 17 muestra los componentes principales del teléfono móvil 421 de la séptima realización. En la figura 17, los componentes que son idénticos a los correspondientes al teléfono móvil de la primera realización han sido referenciados mediante los mismos números de referencia y no serán descritos de nuevo. Como se muestra, el procesador 461 tiene una salida DATA_OUT que está conectada a una primera entrada de un codificador 463 y la salida AUDIO_OUT del procesador 461 está conectada a una segunda entrada del codificador 463. En esta realización, el codificador 463 es idéntico al codificador de la sexta realización. El codificador 463 codifica una señal de datos de salida a través de la salida DATA_OUT del procesador 461 dentro de una señal de audio de salida a través de la salida AUDIO_OUT del procesador 461 para formar una señal de audio modificada que es convertida en una señal analógica por el convertidor 117 de digital a analógico, y la señal analógica es amplificada a continuación por el amplificador 119 antes de ser convertida en una señal acústica por el altavoz 25.
La figura 18 muestra la configuración funcional del procesador 461 cuando se recibe una señal que inicia una llamada telefónica a través de la antena 27. Como se muestra, la señal recibida se aplica a un generador 471 de señal de llamada que genera una señal de llamada que es entregada a través de la salida AUDIO_OUT del procesador 461. La señal recibida también es aplicada a un extractor 473 de números telefónicos que determina a partir de la señal recibida el número de teléfono del usuario que realiza la llamada. El número de teléfono determinado es procesado por un recuperador 475 de respuesta que accede a una identificador de respuesta correspondiente al número de teléfono determinado que se encuentra en una zona 477 de almacenamiento de respuestas perteneciente a la memoria 125 de acceso aleatorio no volátil. Como se muestra, la zona 477 de almacenamiento de respuesta tiene el formato de una tabla de búsqueda que almacena una pluralidad de números de teléfono junto con los correspondientes identificadores de respuesta. En esta realización, hay tres posibles respuestas que tienen identificadores de respuesta A, B y C respectivamente. Cuando el recuperador 475 de respuesta ha recuperado un identificador de respuesta de la zona 477 de almacenamiento de respuestas, el identificador de respuesta recuperado es procesado por un generador 479 de señales de datos que genera una señal de control correspondiente que es generada a través de la salida DATA_OUT del procesador 461.
Como se describió anteriormente, la señal acústica 435 es detectada por el micrófono 437 de un juguete electrónico 425 que convierte la señal acústica en una señal eléctrica. La figura 19 muestra esquemáticamente los componentes principales del conjunto de circuitos electrónicos dentro del juguete 425. Como se muestra, la señal eléctrica generada por el micrófono 437 es aplicada a un filtro 491 anti-solapamiento antes de ser convertida en una señal digital por el convertidor 493 de digital a analógico. La señal digital generada por el convertidor 493 de digital a analógico se aplica al decodificador 495 que recupera la señal de control. En esta realización, el decodificador 495 es idéntico al decodificador de la sexta realización.
La señal de control recuperada se aplica a un procesador 497 que está conectado a una memoria 499 de acceso aleatorio, que proporciona memoria de trabajo, y a una memoria 501 de solo lectura que almacena rutinas que son ejecutadas en respuesta a la señal de control. Una primera salida del procesador 497 se conecta a un primer circuito 503 controlador de motor que genera señales de accionamiento que se aplican a un motor 505 de cejas para causar el movimiento de las cejas articuladas 447. Una segunda salida del procesador 497 se conecta a un segundo circuito 507 controlador de motor que genera señales de accionamiento que se aplican al motor 509 de boca para causar movimiento de la boca articulada 445. Una tercera salida del procesador 497 se conecta, a través de un convertidor 511 de digital a analógico y un amplificador 513, a un altavoz 515.
En operación, la recepción de una señal de control activa una rutina correspondiente almacenada en la memoria 501 de solo lectura asociada con la señal de control que hace que el procesador 497 genere una señal que se aplica al circuito 503 controlador de motor, haciendo que el circuito 503 controlador de motor accione el motor 505 de cejas para mover las cejas 447 articuladas, y genera una señal que se aplica al segundo circuito 507 controlador de motor que hace que el segundo circuito 507 controlador de motor genere una señal que acciona el motor 509 de boca para mover la boca 445 articulada. De este modo, se adopta la expresión deseada correspondiente a la señal de control. Más aun, el procesador 497 entrega una señal de audio asociada con la señal de control al convertidor 511 de digital a analógico, donde se convierte en una señal analógica que es amplificada a continuación por el amplificador 513 antes de ser entregada como una señal acústica por el altavoz 449. Como se muestra en la figura 16, la señal de control asociada con el usuario 423 hace que la expresión facial del juguete 425 se transforme en un fruncimiento de ceño, y la señal de audio asociada con el usuario 423 es un gruñido.
En la séptima realización, un teléfono móvil determina una señal de control asociada con el número de teléfono de un usuario que realiza una llamada y combina la señal de control con el tono de llamada para que sea detectada por el juguete 425. Sin embargo, la señales de control también podrían ser transmitidas a un teléfono móvil a través de una red de telecomunicaciones para su transmisión por un teléfono móvil como una señal acústica para su subsiguiente detección y procesamiento por un dispositivo electrónico. Se describirá ahora una octava realización con referencia a las figuras 20 y 21 en la que la expresión facial y los sonidos emitidos por el juguete 425 de la séptima realización son alterados de acuerdo con señales de control que son transmitidas, utilizando el Servicio de Mensajes Cortos (SMS) definido en la especificación Sistema Global para comunicaciones Móviles (GSM), a través de la red 429 de telecomunicaciones a un teléfono móvil. En la figura 20, los componentes que son idénticos a los componentes correspondientes en la figura 16 han sido referenciados con los mismos números y no serán descritos nuevamente.
Como se muestra en la figura 20, un sistema informático 521 está conectado a un módem 523 a través del cual el sistema informático 521 envía señales a través de la red 429 de telecomunicaciones. En respuesta a un usuario del sistema informático 521 que indica que una señal de control va a ser enviada al teléfono móvil 525, un identificador de señal de control correspondiente se entrega en forma de mensaje SMS, utilizando el módem 523, a la red 429 de telecomunicaciones que enruta el mensaje SMS a la estación base 431 que da cobertura a la localización del teléfono móvil 525. La estación base 431 emite entonces una señal de radiofrecuencia 433 que transporta el mensaje SMS para su detección por el teléfono móvil 525.
En esta realización, los componentes físicos del teléfono móvil 525 son idénticos a los del teléfono móvil descrito con referencia a la figura 17 para la séptima realización. Sin embargo, en esta realización la memoria de solo lectura en el teléfono móvil 525 incluye una rutina que, en respuesta a un mensaje SMS portador de un identificador de señal de control, recupera el identificador de señal de control del mensaje SMS y genera la señal de control correspondiente y una señal de audio prefijada a través de las salidas DATA_OUT y AUDIO_OUT del procesador respectivamente.
La figura 21 muestra la configuración funcional del procesador del teléfono móvil cuando procesa un mensaje SMS recibido que transporta un identificador de señal de control. El mensaje SMS es procesado por el analizador 531 de mensajes SMS que recupera el identificador de señal de control. A continuación, el analizador de mensajes SMS hace que un generador 535 de señal de audio emita la señal de audio prefijada a través de la salida AUDIO_OUT del procesador y que un generador 533 de señal de datos emita la señal de control correspondiente al identificador de señal de control del procesador a través de la salida DATA_OUT. A continuación, el codificador combina la señal de control con la señal de audio prefijada para formar una señal de audio modificada que se emite como una señal acústica 435. En esta realización, la señal de audio prefijada se utiliza solamente para alertar al usuario del teléfono móvil de que está siendo enviada una señal de control.
En esta realización, el juguete 425 detecta la señal acústica 435 y responde de la misma manera descrita en la séptima realización.
MODIFICACIONES Y REALIZACIONES ADICIONALES
En las realizaciones primera a octava, un canal de datos acústicos se utiliza para introducir datos en o para extraer datos de un teléfono móvil. La adición de un canal de datos acústicos a un teléfono móvil tiene muchas ventajas, como por ejemplo:
1.
El teléfono móvil está ya equipado con un micrófono y un altavoz que pueden utilizarse para el canal de datos acústicos. Por consiguiente, no se necesita aumentar el peso el peso del teléfono móvil significativamente.
2.
Los procesadores típicamente utilizados en la mayor parte de los teléfonos móviles digitales son adecuados para ser programados para ejecutar rutinas que codifican y/o decodifican datos dentro del canal de datos acústicos.
3.
Las técnicas de comunicación acústica son adecuadas para comunicaciones de corta distancia, particularmente al no estar sujetas a los mismos requerimientos regulatorios que las técnicas de comunicación por radiofrecuencia.
4.
Las redes para distribuir señales acústicas están ya establecidas, por ejemplo las redes de emisión de televisión y radio.
5.
Muchas personas llevan consigo un teléfono móvil virtualmente todo el tiempo. Por consiguiente, proporciona una ruta ideal de comunicación para datos que dependan de la localización de la persona.
6.
La utilización de un enlace acústico a teléfonos móviles permite orientar datos a personas que se encuentran en un lugar específico, por ejemplo un edificio particular utilizando un sistema de megafonía pública dentro del edificio, o a oyentes de una fuente de audio particular, por ejemplo una determinada emisora de radio. Esto es ventajoso tanto para el proveedor de los datos, porque los datos son proporcionados de manera eficiente, como para el usuario del teléfono móvil, porque solo se reciben aquellos datos que vayan a ser probablemente útiles.
7.
Utilizar una técnica de comunicación acústica para introducir datos en un teléfono móvil es generalmente más conveniente que introducir datos utilizando las teclas del teléfono móvil debido a que las teclas son generalmente pequeñas.
Como apreciarán los expertos en la técnica, algunas de las ventajas descritas anteriormente también existen con otros teléfonos portátiles, como por ejemplo teléfonos inalámbricos que se comunican con una estación base conectada directamente a una Red Telefónica Pública Conmutada (PSTN), o incluso teléfonos convencionales directamente conectados a una Red Telefónica Pública Conmutada. Los expertos en la técnica también apreciarán que el teléfono podría estar incorporado como parte de otro dispositivo, por ejemplo un asistente personal digital (PDA).
Como se describió anteriormente en las realizaciones primera a quinta, el invento es particularmente adecuado para los así llamados teléfonos "inteligentes" que poseen cierta capacidad para procesar datos junto con la capacidad de manejar llamadas de voz, ya que pueden utilizarse las técnicas de comunicación acústica para, por ejemplo, controlar el acceso a datos o para generar señales de acuerdo con los datos recibidos. En las realizaciones primera a quinta, el teléfono móvil es capaz de descargar datos de la red Internet utilizando el Protocolo de Aplicaciones Inalámbricas. Otros tipos de teléfonos "inteligentes" incluyen aquellos que utilizan el sistema i-MODE, "teléfonos Java" que contienen la Plataforma Java 2 Micro Edición (J2ME), y los futuros teléfonos móviles 3G.
En las realizaciones primera a quinta, un usuario es capaz de descargar una página web de la red Internet acerca de un programa de televisión utilizando un teléfono móvil. En particular, un Localizador Uniforme de Recursos para la página web se codifica dentro de la pista de audio del programa de televisión. De este modo, el canal de datos acústicos se utiliza para establecer un enlace entre el teléfono móvil y la página web.
El Localizador Uniforme de Recursos codificado en el programa de televisión podría estar asociado a una página web mencionada específicamente en el programa de televisión como una fuente de información ulterior. Alternativamente, el Localizador Uniforme de Recursos podría estar asociado a una página web "oculta" cuya existencia no está difundida y a la que por tanto solo se puede acceder a través de teléfonos móviles convenientemente autorizados. Por ejemplo, un largometraje podría tener codificado dentro de su banda sonora un Localizador Uniforme de Recursos para una página web que contuviese entrevistas a los miembros del reparto, etc.
Los expertos en la técnica apreciarán que otro formato de identificador de página web podría codificarse en la pista de audio en lugar del Localizador Uniforme de Recursos. Por ejemplo, podría utilizarse una combinación de la dirección de Protocolo de Internet del servidor que almacena la página web y datos de índice que identifican la página web deseada al servidor.
En una realización alternativa, un identificador de página web registrada se codifica dentro de la pista de audio y cuando el teléfono móvil recibe una señal acústica que transporta un identificador de página web registrada, accede a una base datos que almacenan una tabla de búsqueda que asocia una pluralidad de identificadores de página web registrada con sus direcciones de Protocolo de Internet asociadas y/o Localizadores Uniformes de Recursos. De este modo, se determina la localización de los datos de la página web asociada al identificador de página web registrada recibido. La base de datos podría alojarse bien en el teléfono móvil o bien en un servidor remoto al que accediera el teléfono móvil utilizando la red de telecomunicaciones móviles. Si la base de datos está almacenada en el teléfono móvil, la base de datos puede ser actualizada periódicamente, por ejemplo mediante el envío de nuevos datos utilizando mensajes SMS.
Si la base de datos registrada se aloja en un servidor remoto, el servidor remoto, al recibir un identificador de página web registrada, puede bien devolver al teléfono celular la correspondiente dirección de Protocolo de Internet/Localizador Uniforme de Recursos o bien reenviar al servidor correspondiente a la dirección de Protocolo de Internet/Localizador Uniforme de Recursos una solicitud para descargar datos directamente al teléfono móvil. Una ventaja de utilizar un servidor remoto para almacenar la base de datos de identificadores de página web registrada y sus direcciones de Protocolo de Internet asociadas es que el número de veces que el usuario del teléfono móvil accede al servidor puede ser monitorizado. Esto permite al realizador del programa de televisión evaluar la utilidad de codificar las páginas web dentro del programa de televisión. Más aun, mediante la monitorización del número de veces que un usuario del teléfono móvil accede al servidor, se puede establecer un esquema de lealtad en el que el usuario recibe premios, por ejemplo obsequios gratuitos, por su uso frecuente. En particular, si el usuario accede a la base de datos un número predeterminado de veces recibirá un premio. Esto anima al usuario del teléfono móvil a hacer uso del servidor.
En las realizaciones primera a quinta, la señal de televisión no necesita ser emitida utilizando un transmisor sino que podría ser enviada al televisor mediante una red de cable o vía satélite. También será apreciado que el invento podría asimismo aplicarse a una señal de radio, sea ésta emitida utilizando un transmisor o a través de una red de cable. Más aun estas técnicas pueden aplicarse a un sistema de comunicación punto-a-punto así como a sistemas de emisión. Adicionalmente, técnicas convencionales de cifrado podrían utilizarse de modo que la señal de televisión
o radio solo pudiesen ser reproducidas después de ser procesadas por un conjunto de circuitos eléctricos de desencriptado.
En una realización, la señal de datos sumada a la pista de audio emitida incluye un identificador de fuente y un sello de tiempo. El identificador de fuente identifica la fuente de la pista de audio, por ejemplo a qué estación de radio o estación de televisión o película pertenece la pista de audio, y el sello de tiempo identifica el momento durante la emisión, por ejemplo la hora actual del día o simplemente el número de pista de la pista de audio. El usuario del teléfono móvil es capaz entonces de transmitir, a través de la red de comunicaciones móviles, el identificador de fuente y el sello de tiempo a un servidor remoto que almacena una base de datos que identifica para cada combinación de identificador de fuente y de sello de tiempo el título de la pieza musical que está siendo reproducida. El servidor remoto transmite entonces el título asociado con el identificador de fuente y el sello de tiempo recibidos al teléfono móvil que muestra el título al usuario del teléfono móvil.
Como otra alternativa, la señal de televisión podría almacenarse en una cinta de vídeo, un disco versátil digital (DVD), un disco duro o un medio similar. De este modo, no se transmite ninguna señal a través de la atmósfera o a través de una red de cable, sino que la señal de televisión se almacena en un medio de registro que es subsecuentemente reproducido para un usuario en el televisor del usuario. Similarmente, una señal de audio podría almacenarse en una cinta de audio, disco compacto (CD) o un medio similar. Más aun, la pista de audio podría almacenarse como un archivo informático, por ejemplo un archivo MP3, en un disco duro o en un medio similar.
En las realizaciones primera a quinta, el modo monitor es activado por el usuario del teléfono móvil. En otras realizaciones, el modo monitor se activa en respuesta a un estímulo externo y no por el usuario del teléfono móvil. Por ejemplo, el modo monitor podría activarse mediante la recepción de un mensaje SMS. Alternativamente, el teléfono móvil podría configurarse para que la funcionalidad del modo monitor estuviese activada continuamente.
Como se describió anteriormente, en el modo monitor un teléfono móvil monitoriza la presencia de cualesquiera señales de datos transportadas por señales acústicas detectadas por el micrófono. En una realización, con el fin de ahorrar energía durante los períodos en los que no se detectan señales de datos, el teléfono móvil puede operar en modo "ahorro de energía" en el que el teléfono móvil solo inspecciona periódicamente la existencia de señales de datos en lugar de inspeccionar continuamente la existencia de señales de datos. Por ejemplo, el teléfono móvil podría inspeccionar la existencia de señales de datos por un período de tres segundos y, si no se detecta ninguna señal de datos, el teléfono móvil esperaría diez segundos. El modo ahorro de energía podría ser activado automáticamente por el teléfono móvil si no se recibe ninguna señal de datos durante un periodo de tiempo predeterminado. Alternativamente, el modo de ahorro de energía podría ser activado por el usuario o por un estímulo externo.
En las realizaciones primera a quinta, el usuario de un teléfono móvil accede a la página web cuyo Localizador Uniforme de Recursos se detecta dentro de la pista de audio de un programa de televisión mediante la selección de una opción de menú utilizando teclas de menú. El acceso a la página web podría también iniciarse mediante un estímulo externo, por ejemplo un comando enviado utilizando el canal de datos acústicos. En algunas aplicaciones, el teléfono móvil accede a la página web automáticamente sin necesidad de ninguna acción del usuario ni de un estímulo externo, en cuyo caso el teléfono móvil no necesita almacenar el Localizador Uniforme de Recursos u otro identificador de página web. Por ejemplo, en una realización se codifica una secuencia de identificadores de página web dentro de la pista de audio de un programa de televisión y un teléfono móvil detecta la secuencia de identificadores de página web y automáticamente descarga las páginas web correspondientes. De este modo, el teléfono móvil puede mostrar páginas que varían en sincronismo con el contenido del programa de televisión. Tal acceso automático podría activarse como respuesta a una instrucción del usuario o a un estímulo externo, o alternativamente el teléfono móvil podría estar preconfigurado para acceder automáticamente. Preferiblemente, el usuario es capaz de inhabilitar el acceso automático si el usuario considera que los datos que están siendo descargados son irrelevantes.
En una realización alternativa, el usuario del teléfono móvil es capaz de almacenar un identificador de página web recibido en una memoria de acceso aleatorio no volátil dentro del teléfono móvil para futuros accesos mediante la selección de la opción de menú apropiada.
En las realizaciones descritas, el usuario introduce una instrucción al teléfono móvil accediendo a una opción de menú. Ejemplos de instrucciones de usuario son activar el modo monitor o el modo de ahorro de energía, acceder a una página web correspondiente a un identificador de página web recibido o dar instrucciones al teléfono móvil para que acceda automáticamente a la página web correspondiente a un identificador de página web recibido. En lugar de
o adicionalmente a tal configuración de “teclas programables” para introducir instrucciones, el teléfono móvil podría incluir una o más "teclas físicas" asociadas al canal de datos acústicos, es decir teclas reservadas dispuestas en el teléfono móvil, estando cada una de ellas asociada a una instrucción correspondiente. Estas "teclas físicas" podrían estar bien preconfiguradas durante la fabricación del teléfono móvil, o bien programadas por el usuario del teléfono móvil. En una realización alternativa, el teléfono móvil incluye programas informáticos de reconocimiento de voz para que las instrucciones puedan ser introducidas por un usuario pronunciando una palabra o frase asociada en el micrófono del teléfono móvil.
En las realizaciones primera a quinta, los datos codificados dentro de la pista de audio de un programa de televisión están relacionados con una página web. Alternativamente, los datos codificados dentro de la pista de audio de un programa de televisión podrían estar relacionados, por ejemplo, con el título de una pieza musical que está siendo reproducida en el televisor. Este título puede ser mostrado entonces por el teléfono móvil. Alternativamente, podrían codificarse números de teléfono dentro de la pista de audio de un programa de televisión, por ejemplo se podría codificar un número de teléfono de "premios" que podría ser marcado automáticamente durante una emisión para entrar en una competición.
El canal de datos acústicos podría también utilizarse para transmitir información de juegos al teléfono móvil. Por ejemplo, para los juegos informáticos reproducidos en el teléfono móvil que tienen una estructura multinivel donde el acceso a cada nivel se realiza mediante contraseña, las contraseñas podrían codificarse dentro de la pista de audio de modo que pudieran descargarse al teléfono móvil, a través del canal de datos acústicos, para así permitir el acceso a los niveles respectivos. La pista de audio podría ser, por ejemplo, la pista de audio de una película asociada al juego informático para que las personas que hayan visto la película pudieran tener acceso a uno o más niveles del juego informático. Alternativamente, pistas o indicaciones relacionadas con el juego informático podrían codificarse dentro de la pista de audio.
En otra aplicación alternativa, la señal F(t) de datos codificada dentro de la pista de audio de un programa de televisión o de un programa de radio podría transportar datos de medición de índices de audiencia identificando el programa que está siendo visionado y/o escuchado por el usuario del teléfono móvil. El uso de un teléfono móvil para recoger datos de medición de índices de audiencia es ventajoso por tres razones principales. En primer lugar, el usuario de un teléfono móvil tiene tendencia a llevarlo consigo. Los datos de medición de índices de audiencia recogidos están por lo tanto asociados a un usuario, en lugar de estarlo a un televisor o aparato de radio como ocurre en la mayoría de los sistemas automáticos de medición de índices de audiencia. En segundo lugar, el teléfono móvil es capaz de enviar datos de medición de índices de audiencia por el usuario automáticamente, utilizando la red de comunicaciones móviles, a una base de datos remota en la que se confrontan y analizan datos de medición de índices de audiencia de muchos usuarios. Esto proporciona un mecanismo simple para recoger datos de medición de índices de audiencia sin necesidad de que el usuario intervenga. En tercer lugar, mediante la incorporación de la operación de medición de índices de audiencia a un teléfono móvil que el usuario normalmente lleva consigo o tiene cerca, el usuario es menos consciente de que se está llevando a cabo una medición de índices de audiencia que si el usuario tuviese que portar un dispositivo de medición de índices de audiencia especializado, incluso aunque el usuario sepa que el teléfono móvil está recogiendo datos de medición de índices de audiencia. Esto alivia un problema común con las mediciones de índices de audiencia consistente en que los usuarios alteran sus hábitos de visionado y/o escuchado al saber que se está realizando la medición de índices de audiencia.
En una realización preferida de la aplicación de medición de índices de audiencia, cada ítem de datos de índice de audiencia recibido por el teléfono móvil es inmediatamente descargado, a través de la red de telecomunicaciones móviles, a una estación de medición de índices de audiencia en la que es almacenado en una base de datos de índices de audiencia. En esta realización, la señal de datos es solamente un identificador de canal para la emisora de radio que está siendo escuchada o para el canal de televisión que está siendo visionado en lugar de ser un identificador de un programa particular.
La figura 22 muestra los componentes principales de la estación 551 de medición de índices de audiencia para esta realización preferida. La estación 551 de medición de índices de audiencia recibe una señal de medición de índices de audiencia, a través de la red de telecomunicaciones, que transporta el número de teléfono del teléfono móvil y el identificador de canal. La señal de medición de índices de audiencia recibida es aplicada a un controlador 553 que recupera el identificador de canal y, utilizando una señal de tiempo emitida por un generador 555 de señales de tiempo, determina a partir de una base de datos 557 de programas el programa que está siendo actualmente visionado por el usuario del teléfono móvil. En particular, la base de datos de programas almacena los programas para cada identificador de canal para cada momento y por lo tanto el programa que está siendo visionado puede determinarse a partir de la señal de tiempo y del identificador de canal. El controlador 553 almacena entonces, en la base datos 559 de índices de audiencia, los datos correspondientes al usuario, que es identificado por el número de teléfono del teléfono móvil, y el programa de televisión que está siendo visionado por el usuario. De este modo, se obtiene un resultado prácticamente instantáneo para la medición de índices de audiencia.
El canal de datos acústicos podría también utilizarse para realizar encuestas de opinión. Por ejemplo, un programa de televisión sobre un determinado tema podría llevar codificadas dentro de la señal de su pista de audio preguntas sobre el tema que serían mostradas por el teléfono móvil. El usuario es entonces capaz de introducir una respuesta en el teléfono móvil que automáticamente envía la respuesta a una lugar remoto en el cual es confrontada con las respuestas provenientes de otros teléfonos móviles. Una ventaja de tal encuesta de opinión es que el usuario del teléfono móvil solo tiene que apretar un botón para responder a una pregunta y por lo tanto requiere menos esfuerzo por parte del usuario que otras encuestas de opinión telefónicas en las que el usuario tiene que marcar un número de teléfono, esperar la conexión y a continuación dar una respuesta. Esto animará a más personas a participar en la encuesta de opinión. Para el ejemplo descrito anteriormente en el que la encuesta de opinión está asociada a un programa de televisión, el resultado puede ser ofrecido durante el programa de televisión. Esto es un ejemplo de cómo el canal de datos acústicos puede utilizarse para "cerrar el bucle" desde un presentador a un espectador/oyente (a través de un medio de emisión) y desde el espectador/oyente de vuelta al presentador (a través de una red de telecomunicaciones).
En otra aplicación, los datos para un concurso se transmiten al teléfono móvil utilizando el canal de datos acústicos. Por ejemplo, una pregunta es emitida y detectada por una pluralidad de teléfonos móviles. Los usuarios respectivos de los teléfonos móviles introducen sus respuestas que se transmiten, a través de la red de comunicaciones móviles, de vuelta a donde se originó la pregunta. Podría recompensarse entonces con un premio la respuesta más rápida.
Los expertos en la técnica apreciarán que existen teléfonos móviles capaces de determinar su posición. Por ejemplo, la localización del teléfono móvil puede determinarse con un error menor de cinco kilómetros mediante la identificación de la estación base de la red de comunicaciones móviles que gestiona las comunicaciones por radiofrecuencia con el teléfono móvil. Existen además técnicas más precisas, por ejemplo la técnica de la Diferencia de Tiempo Observada Mejorada (EOTD) que se describe en el documento US Patent No. 6094168, cuyo contenido está aquí incorporado por referencia, y pueden determinar la posición del teléfono móvil con un error menor de aproximadamente cien metros. Alternativamente, el teléfono móvil podría usar un Sistema de Posicionamiento Global (GPS) u otros sistemas basados en satélite para determinar su posición con un error menor de aproximadamente diez metros analizando las señales de radiofrecuencia recibidas desde los satélites. Sin embargo, el conjunto de circuitos eléctricos del receptor para tales sistemas de detección de posición basados en satélite es relativamente caro.
A continuación se describirán un número de sistemas acústicos de detección de posición que utilizan señales acústicas para determinar la posición de un teléfono móvil. Estos sistemas acústicos de detección de posición son particularmente adecuados para un teléfono móvil porque los teléfonos móviles tienen ya incorporados un micrófono y un altavoz. Más aun, los procesadores que forman parte de los teléfonos móviles digitales pueden típicamente ser programados para llevar a cabo los cálculos de determinación de posición requeridos.
Se describirá ahora un primer sistema acústico de detección de posición del invento con referencia a las figuras 23 y 24 en el que un teléfono móvil determina su posición a partir de las señales acústicas recibidas desde altavoces en la vecindad del teléfono móvil. En el primer sistema acústico de detección de posición, cada uno de los altavoces de una pluralidad de altavoces instalados en un centro comercial transmite periódicamente un código de ruido pseudoaleatorio respectivo diferente. Al entrar en el centro comercial, el usuario del teléfono móvil descarga a su teléfono móvil, utilizando la red de comunicaciones móviles, datos de localización de altavoces que identifican la localización y el código de ruido pseudoaleatorio de cada altavoz. Subsiguientemente, el teléfono móvil es capaz de determinar su posición identificando qué altavoces están siendo detectados por el teléfono móvil a partir de sus respectivos códigos de ruido pseudoaleatorios.
En el primer sistema acústico de detección de posición, los componentes físicos del teléfono móvil son idénticos a los del teléfono móvil descrito con referencia a la figura 6 de la primera realización. Sin embargo, en esta realización la memoria de solo lectura del teléfono móvil incluye una rutina que calcula la posición del teléfono móvil a partir de las señales acústicas recibidas.
La figura 23 es un diagrama de bloques esquemático que muestra la configuración funcional del procesador 601 del teléfono móvil del primer sistema acústico de detección de posición que procesa las señales digitales recibidas del convertidor 113 de analógico a digital correspondientes a las señales acústicas recibidas por el micrófono 23. Como se muestra, una señal digital que proviene del convertidor 113 de analógico a digital es procesada por un módulo 603 procesador de audio, un módulo 605 procesador de datos y un módulo 607 procesador de posición. El módulo 603 procesador de audio es un codificador-decodificador de voz celular que se utiliza durante una llamada telefónica para convertir, de una manera convencional, las señales acústicas recibidas en una correspondiente cadena de datos para su transmisión, utilizando la red de telecomunicaciones móviles, a un teléfono remoto. El módulo 605 procesador de datos se utiliza para recuperar señales de datos embebidas en el seno de una señal acústica recibida tal y como se describe en las realizaciones primera a quinta. El módulo 607 de determinación de posición se utiliza para recuperar datos de posición de señales de audio recibidas y para calcular la posición del teléfono móvil utilizando los datos de posición recuperados.
El módulo 603 procesador de audio, el módulo 605 de procesador de datos y el módulo 607 procesador de posición tienen cada uno de ellos una salida que se conecta a una unidad multiplexora 609 que multiplexa las señales recibidas de los módulos procesadores antes de ser transmitidas a la unidad 121 procesadora de radiofrecuencia, y demultiplexa señales recibidas de la unidad 121 procesadora de radiofrecuencia y dirige las señales demultiplexadas a los módulos procesadores apropiados. En la figura 23, solo se muestran las conexiones de los módulos procesadores con el convertidor 113 de analógico a digital y con la unidad 121 procesadora de radiofrecuencia para simplificar la ilustración. Se apreciará que los módulos procesadores también se conectarán a la pantalla 29, al teclado 31, al altavoz 25 y a la memoria.
Se describirá ahora con mayor detalle la operación del módulo 607 procesador de posición con referencia a la figura 24 que muestra esquemáticamente la configuración funcional del módulo 607 procesador de posición.
Al entrar en el centro comercial, el usuario del teléfono móvil selecciona una opción de menú para descargar los datos de localización de altavoces. En respuesta a la detección de la selección del usuario por parte de la interfaz 611 de teclado, un identificador 613 de posición de altavoz entrega una señal al multiplexor 609 solicitando datos de localización de altavoces. El multiplexor 609 envía los datos solicitados, utilizado la unidad 121 procesadora de radiofrecuencia y la red de comunicaciones móviles, a un servidor remoto que a su vez responde enviando al teléfono móvil datos de localización de altavoces de los altavoces existentes en el centro comercial. Al recibir los datos de localización de altavoces, a través de la unidad 121 procesadora de radiofrecuencia y del multiplexor 609, el identificador 613 de posición de altavoz almacena en la memoria 123 de acceso aleatorio la localización asociada y el código de ruido pseudoaleatorio para cada altavoz y envía los códigos de ruido pseudoaleatorios a un identificador 617 de altavoz.
Subsiguientemente, señales digitales que provienen del convertidor 113 de analógico a digital correspondientes a señales acústicas recibidas son demoduladas por el demodulador 615 utilizando una técnica convencional de procesamiento de señal digital y después son procesadas por el identificador 617 de altavoz para detectar la presencia de alguno de los códigos de ruido pseudoaleatorios recibidos con los datos de localización de altavoz. En particular, el identificador 617 de altavoz correlaciona la señal demodulada con cada uno de los códigos de ruido pseudoaleatorios de los datos de localización de altavoz con el fin de determinar qué códigos de ruido pseudoaleatorios están presentes.
Los códigos de ruido pseudoaleatorios detectados son entonces procesados por un calculador 619 de posición que interroga al identificador 613 de posición de altavoz para recuperar de la memoria 123 de acceso aleatorio las localizaciones de altavoz correspondientes a los códigos de ruido pseudoaleatorios detectados. El calculador 619 de posición determina entonces la posición del teléfono móvil a partir de las localizaciones de altavoz recuperadas. En particular, si se detecta solamente un altavoz, el calculador 619 de posición asume que el teléfono móvil está posicionado en la localización del altavoz detectado. Si se detectan dos altavoces, entonces el calculador 619 de posición asume que el teléfono móvil está posicionado a medio camino entre las localizaciones de los dos altavoces detectados. Similarmente, si tres o más altavoces son detectados, el calculador de posición asume que el teléfono móvil está posicionado en el centroide de las localizaciones de los altavoces detectados, es decir en las coordenadas promediadas de las localizaciones de los altavoces detectados.
En esta realización, el calculador 619 de posición envía una señal que identifica la posición del teléfono móvil calculada a un controlador 621 de pantalla que hace que la posición calculada se muestre al usuario del teléfono móvil en la pantalla 29. El identificador 619 de posición también transmite la posición calculada a la estación base más cercana de la red de comunicaciones móviles que a su vez envía la posición calculada a tiendas que se encuentran en el centro comercial. Esto permite a las tiendas identificar a las personas que están en las inmediaciones de la tienda, o incluso dentro de la tienda, y a continuación enviar datos publicitarios a las personas
identificadas. Hacer publicidad de esta manera es ventajoso porque no es necesario que las personas hagan un recorrido largo para llegar hasta la tienda, y por lo tanto es más probable que visiten la tienda si están interesados en el anuncio que si se encontrasen a mucha distancia de la misma.
En el primer sistema acústico de detección de posición, la posición de un teléfono móvil puede ser determinada con un error menor de aproximadamente 10 metros si solo se detecta un altavoz, incrementándose progresivamente la precisión al detectarse mayor número de altavoces. Un intervalo de error estimado puede calcularse a partir del número de altavoces diferentes utilizados para calcular la posición del teléfono móvil. Este intervalo de error podría entonces ser transmitido o mostrado junto con la posición calculada.
En el primer sistema acústico de detección de posición, el calculador 619 de posición asume que el teléfono móvil está posicionado en el centroide de las localizaciones de los altavoces detectados. Sin embargo, una determinación más precisa de la posición puede obtenerse mediante el cálculo de factores de ponderación dependientes de la potencia de la señal recibida de cada altavoz, llevando a cabo una suma ponderada de las coordenadas de las localizaciones de todos los altavoces detectados. Los factores de ponderación pueden ser determinados a partir de la magnitud del pico de correlación detectado para cada altavoz en el identificador 617 de altavoz.
Se describirá ahora un segundo sistema acústico de detección de posición con referencia a las figuras 25 a 28 en las que se utiliza la técnica de determinación de posición descrita en el documento de Solicitud de Patente Internacional WO 01/34264 para determinar la posición del teléfono móvil.
La figura 25 muestra un teléfono móvil 631 en la vecindad de una baliza maestra 633 que está conectada a tres balizas esclavas 635a a 635c mediante los cables respectivos 637a a 637c. En esta realización, la baliza maestra 633 y las baliza esclavas 635 están dedicadas exclusivamente al sistema de detección de posición. La baliza maestra 633 y las balizas esclavas 635 transmiten respectivas señales acústicas 639a a 639d que son detectadas por el micrófono del teléfono móvil 631 y son procesadas por el teléfono móvil 631 para determinar la posición del teléfono móvil 631.
En la configuración a modo de ejemplo mostrada en la figura 25, el teléfono móvil 631 está situado sustancialmente en el mismo plano que la baliza maestra 633 y las balizas esclavas 635. Como se muestra en la figura 25, un origen, es decir una posición (0,0) respecto a la cual se determinan otras posiciones en el plano mediante su distancia al origen en direcciones x e y perpendiculares, se define por la posición de la baliza maestra 633. El teléfono móvil 631 está en una posición (XP, YP) relativa al origen y las balizas esclavas 635a a 635c están en posiciones respectivas (X1, Y1), (X2, Y2) y (X3, Y3) relativas al origen. Como apreciarán los expertos en la técnica, la distancia r1 entre el teléfono móvil 631 y la baliza maestra 633 y las distancias r2, r3, y r4 entre el teléfono móvil 631 y las respectivas balizas esclavas 635a, 635b y 635c vienen dadas por:
2 PX
2 PY 2 1r (2)
( 1X
)2 PX ( 1Y )2 PY 2 2r (3)
( 2X
)2 PX ( 2Y )2 PY 2 3r (4)
( 3X
)2 PX ( 3Y )2 PY 2 4r (5)
En el segundo sistema acústico de detección de posición, se utiliza un sistema de medida de tiempo de propagación diferencial en el que se miden las diferencias entre el tiempo requerido por la señal acústica 639a para viajar desde la baliza maestra 633 al teléfono móvil 631 y los tiempos requeridos por cada una de las señales acústicas 639b a 639d para viajar desde las correspondientes balizas esclavas 635 al teléfono móvil 631. Multiplicando cada uno de estas diferencias de tiempo por la velocidad de propagación de las señales acústicas 639, se obtienen valores representativos de las diferencias entre las distancias que las señales acústicas 639 han tenido que recorrer. De este modo, se obtiene un valor C12 que es igual a la diferencia entre la distancia que separa el teléfono móvil 631 de la baliza maestra 633 y la distancia que separa el teléfono móvil 631 de la baliza esclava 635a (es decir, r1-r2); se obtiene un valor C13 que es igual a la diferencia entre la distancia que separa el teléfono móvil 631 de la baliza maestra 633 y la distancia que separa el teléfono móvil 631 de la baliza esclava 635b (es decir, r1-r3); y se obtiene un valor C14 que es igual a la diferencia entre la distancia que separa el teléfono móvil 631 de la baliza maestra 633 y la distancia que separa el teléfono móvil 631 de la baliza esclava 635c (es decir, r1-r4).
Insertando C12, C13 y C14 en las Ecuaciones 3 a 5 y sustituyendo r12 por XP2+YP2 (ver Ecuación 2 más arriba), pueden deducirse las siguientes ecuaciones:
2 22
2Cr 2XX 2YYC XY (6)
12 1 P 1 P 1 12 11
2 22
2Cr 2XX 2YY C XY (7)
13 1 P 2 P 2 13 22
2 22
2Cr 2XX 2YY C XY (8)
14 1 P 3 P 3 14 33
Estas ecuaciones pueden ser resueltas, utilizando la regla de Cramer (ver por ejemplo el Penguin Dictionary of Mathematics), resultando las siguientes expresiones para XP e YP:
C XYC Y
12 11 121 222
C XYCY
13 22 132 222
C XYCY
14 33 143
(9)
XP
C XY
12 11
C XY
13 22
C XY
14 33
C XXYC
12 111 12 222
C XXYC
13 2 2213 222
C XXYC
14 3 3314
(10)
YP
C XY
12 11
C XY
13 22
C XY
14 33
Una persona experta en la técnica apreciará por consiguiente que si las posiciones de las balizas esclavas 635 relativas a la baliza maestra 633 y la velocidad de las señales acústicas 639 son conocidas, y si las diferencias de tiempo entre el tiempo utilizado por las señales acústicas 639 para viajar desde cada una de las balizas 635 al teléfono móvil 631 y el tiempo utilizado por las señales acústicas para viajar desde la baliza maestra 633 al teléfono móvil 631 son medidas, entonces puede determinarse la posición del teléfono móvil 631 relativa a la baliza maestra
633.
Se ofrece a continuación una descripción más detallada de los componentes del segundo sistema acústico de detección de posición mostrado en la figura 25 con referencia a las figuras 26 a 28.
La figura 26 muestra el conjunto de circuitos eléctricos de la baliza maestra 633 que se utiliza para generar señales de datos de audio que corresponden a las señales acústicas 639. Como se muestra en la figura 26, una unidad 651 de control en la baliza maestra 633 genera señales de control que se aplican a cada uno de los generadores 653a a 653d de código de ruido pseudoaleatorio que generan respectivos códigos de ruido pseudoaleatorios ortogonales diferentes. En particular, el generador 653a de código de ruido pseudoaleatorio genera una secuencia de código a la que nos referiremos como PNA, el generador 635b de código de ruido pseudoaleatorio genera una secuencia de código a la que nos referiremos como PNB, el generador 653c de código de ruido pseudoaleatorio genera una secuencia de código a la que nos referiremos como PNC y el generador 635d de código de ruido pseudoaleatorio genera una secuencia de código a la que nos referiremos como PND. Los códigos de ruido pseudoaleatorios son ortogonales, de modo que si dos cualesquiera de los códigos de ruido pseudoaleatorios se multiplicasen entre sí chip por chip se generaría una nueva secuencia de ruido pseudo-aleatoria.
En respuesta a una señal proveniente de la unidad 651 de control, cada uno de los generadores de código de ruido pseudoaleatorio emite su respectiva secuencia de código de ruido pseudoaleatorio. La velocidad a la cual la unidad 651 de control ordena a los generadores 653 de código de ruido pseudoaleatorio emitir sus respectivos códigos de ruido pseudoaleatorios depende de los requerimientos de operación del sistema de detección de posición. En particular, sería preferible que el tiempo entre emisiones de código de ruido pseudoaleatorio fuese significativamente más largo que la probable máxima diferencia de tiempo de propagación de las señales acústicas 639 hasta el teléfono móvil 631 para así evitar cualquier posibilidad de solapamiento entre diferentes conjuntos de emisiones. En este ejemplo, la probable máxima diferencia de tiempo de propagación es 90ms (que corresponde a una diferencia en distancia de aproximadamente 30 m) y la unidad 651 de control ordena a los generadores 653 de código de ruido pseudoaleatorio emitir sus respectivas secuencias de ruido pseudo-aleatorias una vez por segundo.
La salida de cada uno de los generadores 653 de código de ruido pseudoaleatorio se aplica a las respectivas entradas de los moduladores 655a a 655d en los que es utilizada para modular una señal portadora generada por un oscilador local 657. Las señales de espectro disperso generadas por cada uno de los moduladores 655 son amplificadas por los respectivos amplificadores 659a a 659d de audio para generar señales de datos de audio S1(t), S2(t), S3(t) y S4(t). La señal de datos de audio S1(t) se aplica al altavoz 661, que forma parte de la baliza maestra 633 que genera la señal acústica 639 a correspondiente. Las señales de datos de audio S2(t), S3(t) y S4(t) son transportadas a las entradas respectivas de las balizas esclavas 635, a través de los cables 637. Cada una de las balizas esclavas 635 posee un altavoz que convierte la señal de datos de audio entrante S(t) en la señal acústica 639 correspondiente.
Los componentes del teléfono móvil 631 del segundo sistema acústico de detección de posición son idénticos a los componentes del teléfono móvil del primer sistema acústico de detección de posición excepto por el módulo procesador de posición. La figura 27 muestra esquemáticamente la configuración funcional del módulo 669 procesador de posición del teléfono móvil del segundo sistema acústico de detección de posición. En la figura 27 los elementos funcionales que son idénticos a los elementos funcionales correspondientes del primer sistema acústico de detección de posición han sido referenciados con los mismos números de referencia.
Al igual que en el primer sistema acústico de detección de posición, el usuario selecciona una opción de menú del teléfono móvil 631 para descargar datos de localización de altavoces, es decir los códigos de ruido pseudoaleatorios PNA a PND y la localización de la baliza respectiva. Al detectarse la selección de usuario por la interfaz 611 de teclado, el identificador 613 de posición de baliza descarga los datos de localización de altavoz y los almacena en la memoria 123 de acceso aleatorio. El identificador 613 de posición de baliza informa asimismo a una unidad 671 correladora de los códigos de ruido pseudoaleatorios PNA a PND.
Como se muestra en la figura 27, la señal digital generada por el convertidor 113 de analógico a digital es demodulada por el demodulador 615, y a continuación la señal demodulada es procesada por la unidad 671 correladora que correlaciona la señal demodulada con las secuencias almacenadas correspondientes a los códigos de ruido pseudoaleatorios PNA a PND. En esta realización, la unidad 671 correladora identifica la temporización de las secuencias de código de ruido pseudoaleatorio de la baliza maestra 633 y las balizas esclavas 635, mide los intervalos de tiempo entre las temporizaciones identificadas y genera señales de salida correspondientes a C12, C13 y C14 como se definieron anteriormente.
Se describirá ahora con más detalle la unidad 671 correladora con referencia a la figura 28. Como se muestra en la figura 28, la señal demodulada se aplica a cuatro correladores 681a a 681d que correlacionan la señal demodulada con los respectivos códigos de ruido pseudoaleatorios PNA a PND, que son generados por los generadores de código de ruido pseudoaleatorio 683a a 683d primero a cuarto respectivamente basándose en los datos recibidos del identificador 613 de posición de baliza. Un pico en el valor de correlación detectado por un correlador 681 ocurrirá siempre que el código de ruido pseudoaleatorio asociado con el correlador 681 esté presente en la señal demodulada.
Como se muestra en la figura 28, las salidas de los correladores 681 son procesadas por un procesador 685 de unidad correladora. El procesador 685 de unidad correladora mide la diferencia de tiempo entre un pico recibido del primer correlador 681a y un pico recibido del segundo correlador 681b, multiplica esta diferencia de tiempo por la velocidad de propagación de las señales acústicas para calcular C12 y genera una señal correspondiente a C12. De un modo similar, el procesador 685 de unidad correladora calcula C13 a partir de la diferencia de tiempo entre un pico recibido del primer correlador 681a y un pico recibido del tercer correlador 681c y calcula C14 a partir de la diferencia de tiempo entre un pico recibido del primer correlador 681a y un pico recibido del cuarto correlador 681d, y genera señales correspondientes a C13 y C14.
Volviendo a la figura 27, las señales generadas por la unidad 671 correladora son procesadas por un solucionador 673 de ecuaciones simultáneas. El solucionador 673 de ecuaciones simultáneas interroga al identificador 613 de posición de baliza para recuperar de la memoria 123 de acceso aleatorio las posiciones de la baliza maestra y de las balizas esclavas 635 (es decir, (0,0), (X1, Y1), (X2, Y2) y (X3, Y3)). El solucionador 673 de ecuaciones simultáneas lleva entonces a cabo procesamiento para calcular la posición (XP, YP) del teléfono móvil 631 utilizando las ecuaciones 9 y 10 indicadas anteriormente y los valores de C12, C13 y C14 recibidos de la unidad correladora 671 para determinar la posición del teléfono móvil 631.
Un generador de señal de posición genera entonces señales para transmitir la posición determinada a la red de comunicaciones móviles o para mostrar la posición determinada en la pantalla 29.
En el primer sistema acústico de detección de posición la posición del teléfono móvil se determina de manera relativa a la baliza maestra 633. Los expertos en la técnica apreciarán que si los datos de localización del altavoz incluyen la posición absoluta de la baliza maestra 633, entonces podrá calcularse la posición absoluta del teléfono móvil 631.
En el segundo sistema acústico de detección de posición, la baliza maestra y las balizas esclavas están dedicadas exclusivamente al sistema de determinación de posición. Sin embargo, altavoces que formen parte de un sistema de megafonía pública, por ejemplo, también podrían utilizarse, en cuyo caso cada altavoz podría incluir su propio generador de código de ruido pseudoaleatorio. Es necesario, sin embargo, que todos los altavoces emitan sus propios códigos de ruido pseudoaleatorios con una temporización predeterminada.
En el segundo sistema acústico de detección de posición podrían utilizarse más de cuatro altavoces, y en el caso de que en las señales sean recibidas desde más de cuatro altavoces que no estén en el mismo plano la posición del teléfono móvil podrá ser calculada en tres dimensiones.
En los sistemas acústicos de detección de posición primero y segundo, los datos de localización de altavoces son descargados a través de la red de comunicaciones móviles. Alternativamente, un canal de datos acústicos podría utilizarse para transmitir los datos de localización del altavoz al teléfono móvil. Las coordenadas de todos los altavoces podrían descargarse simultáneamente a través del canal de datos acústicos, o alternativamente cada altavoz podría transmitir sus propias coordenadas al teléfono móvil a través del canal de datos acústicos.
En los sistemas acústicos de detección de posición primero y segundo, todos los altavoces generan respectivos códigos de ruido pseudoaleatorios diferentes. Esto requiere que el teléfono móvil compruebe un gran número de códigos de ruido pseudoaleatorios. Alternativamente, el mismo código de ruido pseudoaleatorio podría utilizarse por diferentes altavoces, siempre que haya algunos altavoces que estén asociados con un código de ruido pseudoaleatorio único que no sea utilizado por ningún otro altavoz. Cada uno de los altavoces que tienen un código de ruido pseudoaleatorio único están asociados a una determinada zona y el teléfono móvil puede determinar en qué zona se encuentra a partir de los códigos de ruido pseudoaleatorios únicos detectados. Así, pueden utilizarse altavoces que tengan los mismos códigos de ruido pseudoaleatorios siempre que no existan posiciones en las que un teléfono móvil pudiese detectar el mismo código de ruido pseudoaleatorio generado por dos altavoces diferentes.
En los sistemas de detección de posición descritos anteriormente, cada altavoz posee un código de ruido pseudoaleatorio asociado que es utilizado por el teléfono móvil para detectar la posición del teléfono móvil. Este código de ruido pseudoaleatorio podría también utilizarse para el canal de datos acústicos. Para el canal de datos acústicos, cada altavoz podría tener un par diferente de códigos de ruido pseudoaleatorios respectivos que se utilizarían para codificar los valores de datos binarios, y el teléfono móvil podría determinar su posición identificando qué códigos de ruido pseudoaleatorios están siendo utilizados para el canal de datos acústicos. Preferiblemente, el código de ruido pseudoaleatorio para uno de los valores de datos binarios es el mismo para todos los altavoces, de modo que solo el código de ruido pseudoaleatorio del otro valor de datos binarios varía. Esto reduce el volumen de procesamiento llevado a cabo por el teléfono móvil.
En todos los sistemas de detección de posición descritos anteriormente, el teléfono móvil lleva a cabo los cálculos de determinación de posición. Sin embargo, los expertos en la técnica apreciarán que el teléfono móvil podría transmitir datos sin procesar, por ejemplo códigos de ruido pseudoaleatorios identificados, a un lugar remoto en el que los cálculos de determinación de posición se llevarían a cabo. Alternativamente, el teléfono móvil podría transmitir una señal que fuese detectada por uno o más micrófonos y la posición del teléfono móvil podría ser entonces calculada dependiendo de qué micrófonos detectan la señal del teléfono móvil y opcionalmente también la temporización con la cual los micrófonos reciben la señal. Si la posición del teléfono móvil se calcula en un dispositivo ajeno al teléfono móvil, entonces la posición calculada puede ser transmitida al teléfono móvil para ser mostrada al usuario.
En los sistemas acústicos de detección de posición primero y segundo, el teléfono móvil también incluye un módulo procesador de datos para comunicarse a través del canal de datos acústicos. Sin embargo, esto no es esencial para los sistemas acústicos de detección de posición.
Como se describe en el primer sistema acústico de detección de posición, el conocimiento de la posición de un teléfono móvil permite llevar a cabo publicidad orientada. Otra situación en la cual el conocimiento de la posición de un teléfono móvil podría ser ventajoso es en un aeropuerto. Específicamente, la localización de pasajeros podría determinarse a partir de sus teléfonos móviles para que pudiesen ser encontrados con rapidez si llegan al embarque con retraso.
En una realización de un sistema acústico de detección de posición, una tarjeta de embarque electrónica es transmitida a un teléfono móvil de un pasajero utilizando el canal de datos acústicos, y el teléfono móvil responde mediante el envío de su número de teléfono. Entonces, utilizando un sistema de detección de posición, se monitoriza la localización del teléfono móvil. Obviamente, si el pasajero se retrasa, puede ser llamado a su teléfono móvil para ser advertido de que su vuelo va a despegar inminentemente. Entonces, para embarcar, el pasajero transmite la tarjeta de embarque electrónica utilizando el canal de datos acústicos.
Puesto que los teléfonos móviles son relativamente baratos, en una realización alternativa un teléfono móvil que incluye una tarjeta de embarque electrónica es entregado a cada pasajero cuando éste llega al mostrador de facturación. Los movimientos del pasajero son entonces monitorizados a través del teléfono móvil, y después el teléfono móvil es recogido cuando el pasajero embarca en el avión.
En realizaciones, los datos transmitidos por el teléfono móvil son enriquecidos con datos de localización calculados por el teléfono móvil en lugar de, o adicionalmente a, los datos de perfil del usuario. De este modo, por ejemplo, una estación de medición de índices de audiencia podría determinar la distribución geográfica de la audiencia de un programa de televisión/radio. Los datos de localización pueden ser calculados bien por el teléfono móvil mismo, o bien a partir de una señal recibida por el teléfono móvil de un conjunto de circuitos eléctricos de determinación de posición externos al teléfono móvil.
Los expertos en la técnica apreciarán que las realizaciones con referencia a un aeropuerto descritas anteriormente podrían también ser empleadas en una estación de tren o de autobús.
En las realizaciones preferidas, los datos transmitidos por el teléfono móvil son enriquecidos añadiendo datos de perfil del usuario almacenados en el teléfono móvil. Esto es particularmente útil para las aplicaciones de medición de índices de audiencia y encuestas de opinión descritas anteriormente porque los datos recogidos pueden ser analizados de acuerdo con las características del usuario contenidas en los datos de perfil del usuario. Por ejemplo, si los datos de perfil del usuario especifican la edad del usuario, entonces la estación de medición de índices de audiencia podría determinar el perfil de edades de la audiencia de un programa de televisión/radio.
Una ventaja de enviar datos enriquecidos que incluyan datos que bien están almacenados en el teléfono móvil, por ejemplo los datos de perfil el usuario, o bien calculados por el teléfono móvil, por ejemplo datos de localización, es que no se requiere ningún esfuerzo adicional por parte del usuario.
En una aplicación adicional alternativa, el codificador se incorpora en el seno de un sistema de telefonía pública, por ejemplo en un aeropuerto o una estación de tren, y el texto de un anuncio realizado utilizando el sistema de megafonía pública se codifica en la señal acústica portadora del anuncio. Así, si un usuario no escucha el anuncio, el texto del anuncio puede ser mostrado al usuario en el teléfono móvil del usuario.
En una aplicación adicional, la señal de datos sumada a la señal de una pista de audio de una emisión incluye un identificador de fuente y un sello de tiempo. El usuario de un teléfono móvil que incluye un decodificador para decodificar la señal de datos es entonces capaz de transmitir, a través de la red de comunicaciones móviles, el identificador de fuente y el sello de tiempo a un servidor remoto que almacena una base de datos que identifica para cada combinación de identificador de fuente y sello de tiempo el título de la pieza musical que está siendo reproducida. El servidor remoto transmite entonces el título asociado con el identificador de fuente y el sello de tiempo recibidos al teléfono móvil que muestra el título al usuario del teléfono móvil. Por ejemplo, si una emisora de radio está reproduciendo una canción que lleva una señal de datos codificada en su seno con un identificador de fuente identificando la emisora de radio y un sello de tiempo identificando el número de pista de la canción reproducida (por ejemplo la décima canción reproducida por esa emisora de radio ese día), entonces el usuario puede descargar el título de la canción desde el servidor remoto. Alternativamente, la pista de audio puede ser una canción en una película y el identificador de fuente identifica la película y el sello de tiempo que identifica el momento de la película en el que la canción es reproducida.
En las realizaciones primera a quinta, una señal de datos se codifica dentro de la señal de una pista de audio de un programa de televisión en un índice de televisión. Esta codificación, sin embargo, no necesita llevarse a cabo antes de la emisión de la señal de televisión. Por ejemplo, la señal de datos podría ser transportada en el seno de los intervalos de supresión verticales de la señal de la pista de vídeo y bien un televisor o bien un convertidor de señal de televisión podrían entonces extraer la señal de datos de la pista de vídeo y codificarla en la pista de audio. El codificador no necesita, por lo tanto, estar en el índice de televisión sino que también podría estar, por ejemplo, en un televisor o en un convertidor de señal de televisión.
El canal de datos acústicos podría también utilizarse para transmitir mensajes que son emitidos o dirigidos selectivamente a teléfonos móviles particulares. En una realización, el teléfono móvil incluye un modo solo-acústico en el que la salida de radiofrecuencia está deshabilitada pero el teléfono es todavía capaz de detectar y analizar señales acústicas para recuperar datos. Esto es particularmente ventajoso para transmitir mensajes en áreas en las que, por razones de seguridad, los teléfonos móviles no pueden utilizarse normalmente debido a sus emisiones de radiofrecuencia. Ejemplos de tales áreas incluyen aeropuertos, estaciones de servicio y hospitales.
El canal de datos acústicos para transmisión de mensajes podría estar formado por cualquier fuente de audio comúnmente encontrada. Por ejemplo, podría utilizarse la pista de audio de un programa de televisión/radio o la salida de un sistema de megafonía pública. En una aplicación particular, el sistema de megafonía pública dentro de una tienda se utiliza para transmitir datos de mensaje sobre, por ejemplo, ofertas especiales disponibles en la tienda.
La habilidad para codificar datos que son específicos para un área geográfica particular resulta de utilidad. Por ejemplo, un programa de televisión podría ser emitido por varias compañías de televisión diferentes que cubriesen diferentes áreas geográficas. Los datos codificados en el programa de televisión podrían por tanto ser variados de unas áreas a otras. De este modo, si los datos están asociados con direcciones de contacto, los datos codificados en el programa de televisión para cada emisora de televisión podrían estar asociados solo con las direcciones de contacto dentro del área geográfica cubierta por la emisora de televisión. Esto es ventajoso porque reduce el volumen de datos enviado al usuario mediante la eliminación automática de los datos que probablemente no son relevantes.
Los datos codificados en la pista de audio podrían también ser usados para controlar la operación del teléfono móvil. Por ejemplo, en lugares como salas de cine, aviones y estaciones de servicio donde los teléfonos móviles no deberían utilizarse, una señal de datos puede ser transmitida al teléfono móvil que bien apagase el teléfono móvil o bien lo conmutase a modo silencioso de manera apropiada.
En una aplicación, los datos codificados en la pista de audio corresponden a un tono de llamada para el teléfono móvil, que responde almacenando los datos de tono de llamada en una memoria de acceso aleatorio no volátil (o en otro tipo de memoria no volátil) dentro del teléfono móvil. El generador de tonos de llamada el teléfono móvil puede entonces generar un tono de llamada correspondiente a los datos de tono de llamada almacenados. En una realización, una canción grabada lleva codificados en su seno datos para un tono de llamada que suena como un fragmento de la canción, y el teléfono móvil decodifica el tono de llamada de modo que puede hacerse que el tono de llamada del teléfono móvil suene como la canción.
En otra aplicación, los datos para un icono se codifican en la pista de audio para ser decodificados por el teléfono móvil. El icono puede entonces ser mostrado por el teléfono móvil o incluido en mensajes de datos para otros teléfonos móviles.
El canal de datos acústicos podría utilizarse para transmitir pequeños archivos de programa al el teléfono móvil. Por ejemplo, para "teléfonos Java" pequeños archivos de programa comúnmente referidos como APPlets (a veces referidos como MIDlets) podrían ser recibidos por el teléfono móvil a través del canal de datos acústicos. El canal de datos acústicos podría también utilizarse para activar un archivo de programa que ha sido previamente descargado al teléfono móvil. Por ejemplo, un teléfono Java podría haber almacenado un APPlet para mostrar una secuencia animada y el APPlet podría ser activado, y la secuencia animada mostrada consecuentemente, en respuesta a una señal de activación recibida a través del canal de datos acústicos.
Podrían también descargarse al teléfono móvil archivos de programa correspondientes a personajes informáticos cuyo comportamiento variase en respuesta a las acciones de un usuario. En particular, un algoritmo de "comportamiento" dentro del archivo de programa determina las acciones del personaje informático sobre la base de las acciones del usuario del teléfono móvil. El usuario es por lo tanto capaz de educar el comportamiento del personaje informático. Tales personajes informáticos son conocidos, por ejemplo Tamagochi. El canal de datos acústicos podría entonces utilizarse para transportar datos de control que modifican el algoritmo de comportamiento de un personaje informático de modo que el comportamiento del personaje informático reacciona a hechos que ocurren alrededor del usuario del teléfono móvil. Por ejemplo, una película de terror podría tener datos de control codificados en la señal de su pista de sonido que hiciesen que el personaje informático se comportase de una manera indicativa de que está agitado o asustado. De este modo, el personaje informático es capaz de reaccionar a eventos externos.
En todas las aplicaciones y realizaciones descritas anteriormente, un único canal de datos acústicos es proporcionado al teléfono móvil. Sin embargo, podría proporcionarse más de un canal de datos acústicos. Por ejemplo, si se utiliza codificación de espectro disperso entonces podrían asignarse diferentes códigos de ruido pseudoaleatorios a cada canal de datos acústicos (es decir, una configuración de acceso múltiple por división de código (CDMA)).
También podrían descargarse al teléfono móvil archivos de programa conteniendo códigos de ruido pseudoaleatorios para establecer un canal de datos acústicos e instrucciones de configuración para responder a datos recibidos a través de ese canal de datos acústicos. Por ejemplo, el canal de datos acústicos correspondiente a un archivo de programa podría estar asociado con una compañía particular que envía identificadores de página web registrada a través del canal de datos acústicos, y el teléfono móvil responde reenviando los identificadores de página web registrada a un servidor operado por la compañía. Un teléfono móvil podría tener más de uno de estos archivos de programa almacenados en su seno, siendo capaz el usuario de seleccionar uno de los archivos de programa, y por consiguiente los códigos de ruido pseudoaleatorios utilizados para decodificar una señal acústica detectada, utilizando un menú.
En una realización, se proporciona un canal de control acústico que utiliza códigos de ruido pseudoaleatorios que son programados en el seno de teléfonos móviles durante su fabricación. Subsiguientemente, un archivo de programa que contiene códigos de ruido pseudoaleatorios para establecer un canal de datos acústicos adicional e instrucciones de configuración para responder a datos recibidos a través del canal de datos adicional, se transmite utilizando el canal de datos acústicos. En una realización alternativa, el archivo de programa es descargado a través de la red de comunicaciones móviles.
Un problema asociado a la transmisión acústica de datos es que las velocidades de transmisión de datos son generalmente lentas, especialmente si se desea minimizar la molestia causada por la señal acústica de datos a un oyente. Para cualquier aplicación que requiera la descarga de un volumen significativo de datos, por ejemplo un archivo APPlet, este problema puede ser al menos parcialmente resuelto mediante la transmisión de una dirección de página web, que requiere muchos menos datos, para una página web de la que los datos pueden descargarse, utilizando por ejemplo el Protocolo de Aplicaciones Inalámbricas, a través de la red de comunicaciones móviles. Alternativamente, los datos podrían descargarse utilizando correo electrónico. Más aun, no es esencial que los datos se descarguen de una página web porque podrían descargarse de cualquier fuente de información accesible a través de la red de comunicaciones móviles.
Debido a que el ancho de banda requerido para transmitir una señal eléctrica portadora de una señal de pista de audio original modificada por una señal de datos codificada en su seno no es mayor que el requerido para transmitir una señal eléctrica que transporta la señal de una pista de audio original, un teléfono móvil podría codificar una señal de datos durante una llamada dentro de las señales de radiofrecuencia salientes que transportan datos de voz para ser recibida por otro teléfono móvil que recuperaría la señal de datos a partir de los datos de voz recibidos. La señal de datos podría, por ejemplo, corresponder a una tarjeta de visita.
En todas las aplicaciones y realizaciones descritas anteriormente, el teléfono móvil u otro aparato de teléfono comprenden bien un codificador para codificar una señal de datos dentro de una señal de una pista de audio, o bien un decodificador para decodificar una señal de datos que se encuentra dentro de una señal eléctrica correspondiente a una señal acústica detectada, o bien un codificador y un decodificador. Sin embargo, esto no es esencial porque podría utilizarse un aparato de teléfono convencional que bien recibe de un dispositivo remoto que tiene un codificador, a través de la red de telecomunicaciones, una pista de audio que ya lleva consigo una señal de datos codificada para ser entregada por el aparato de teléfono como una señal acústica, o bien podría transmitir, a través de la red de telecomunicaciones, una señal eléctrica correspondiente a una señal acústica detectada a un dispositivo remoto que tenga un decodificador.
Las realizaciones sexta, séptima y octava describen sistemas en los que un teléfono móvil codifica una señal de datos dentro de una señal acústica emitida por el teléfono móvil para ser detectada por un dispositivo electrónico. En las realizaciones sexta y octava, la señal de datos está codificada en una secuencia prefijada de audio cuyo único propósito es alertar al usuario de que la transferencia de datos está teniendo lugar. Esta secuencia de audio prefijada no es por lo tanto esencial y la señal de datos de dispersión podría ser generada directamente.
En la sexta realización, los datos de usuario se transmiten entre dos teléfonos móviles utilizando el canal de datos acústicos. Alternativamente, el canal de datos acústicos podría utilizarse para permitir a dos teléfonos móviles interaccionar uno con otro. En una realización, se proporciona un juego interactivo que permite a los jugadores jugar uno contra otro utilizando sus respectivos teléfonos móviles con datos que son transmitidos entre los teléfonos móviles utilizando el canal de datos acústicos. Por ejemplo, el juego interactivo podría ser un juego de ajedrez que tiene la ventaja de que solo se necesita transmitir un pequeño volumen de datos entre los dos teléfonos móviles.
En las realizaciones séptima y octava, las señales de control se utilizan para activar rutinas correspondientes dentro del dispositivo electrónico. Sin embargo, los expertos en la técnica apreciarán que las propias señales de control podrían transportar las rutinas que son implementadas por el dispositivo electrónico. Por ejemplo, la señal de control podría transportar información que activarse un sintetizador de voz localizado en el seno del dispositivo electrónico para producir un sonido deseado, por ejemplo una palabra o una frase.
En las realizaciones séptima y octava, las señales de control emitidas por el teléfono móvil se utilizan para controlar un juguete. Los expertos en la técnica apreciarán que las señales de control podrían controlar dispositivos diferentes de un juguete. Por ejemplo, el teléfono móvil podría utilizarse como un dispositivo de control remoto de modo que mediante la introducción de instrucciones en el teléfono móvil, se generarían señales acústicas de control para controlar un televisor, un sistema de entretenimiento doméstico, una unidad de aire acondicionado u otro accesorio doméstico.
El teléfono móvil puede también utilizarse para almacenar créditos, en cuyo caso una porción bien de la memoria de acceso aleatorio o bien de la memoria de acceso aleatorio no volátil se reserva para el almacenamiento de un valor indicativo del número de créditos que posee el usuario del teléfono móvil. Estos créditos pueden descargarse al teléfono móvil bien a través de la red de comunicaciones móviles convencional o bien a través del canal de datos acústicos. El teléfono móvil puede entonces emitir, a través del canal de datos acústicos, señales de control a máquinas expendedoras con el fin de adquirir bienes. Los créditos almacenados en el teléfono móvil podrían acumularse según un esquema de lealtad. Por ejemplo, cada vez que un usuario del teléfono móvil va a una cadena de salas de cine particular, un dispositivo dentro de la sala de cine envía, a través del canal de datos acústicos, un crédito al teléfono móvil, que a su vez responde incrementando en uno el número de créditos almacenados. Cuando el número de créditos almacenados en el teléfono móvil alcanza un número predeterminado, el teléfono móvil puede emitir una señal de control, a través del canal de datos acústicos, que reduce el precio de la entrada a la sala de cine.
Como se describió anteriormente, el teléfono móvil podría utilizarse para almacenar una tarjeta de embarque electrónica para un vuelo. Alternativamente, el teléfono móvil podría recibir billetes electrónicos, a través del canal de datos acústicos, para otros sistemas de transporte público tales como trenes o autocares. El teléfono móvil podría también emitir una señal, a través del canal de datos acústicos, que controlase barreras de acceso con billete en un sistema de transporte público cuando el teléfono móvil tuviese almacenado un billete electrónico.
El teléfono móvil también podría interaccionar a través del canal de datos acústicos con un dispositivo de red conectado a una red diferente de la red de comunicaciones móviles, por ejemplo una red Bluetooth. De este modo, el teléfono móvil puede comunicarse con dispositivos remotos a través de redes diferentes de la red de comunicaciones móviles.
En alguna de las realizaciones descritas anteriormente, se utilizan mensajes SMS para transportar datos hacia o desde el teléfono móvil. Podrían utilizarse otras técnicas de transmisión de datos por radiofrecuencia alternativas, por ejemplo mensajería EMS y mensajería MMS.
Aunque en las realizaciones descritas se utilizaron codificadores físicos, los expertos en la técnica apreciarán que la función de estos codificadores físicos podría también ser llevada a cabo por un equipo informático que ejecutase un programa informático apropiado. Similarmente, la función del decodificador programado de las realizaciones primera a quinta podría ser implementada en un decodificador físico y la función del decodificador físico de las realizaciones sexta a octava podría ser implementada mediante un decodificador programado. Más aun, las rutinas de detección de posición de los sistemas acústicos de detección de posición descritos podrían ser implementadas físicamente.
El invento también se extiende por consiguiente a programas informáticos, particularmente programas informáticos sobre o dentro de un sistema portador, adaptados para llevar a la práctica el invento. El programa puede tener el formato de un código fuente, código objeto, una fuente de código intermedio y código objeto en forma parcialmente compilada, o cualquier otro formato adecuado para su uso en la implementación de procesos de acuerdo con el invento.
El sistema portador puede ser cualquier entidad o dispositivo capaz de transportar el programa. Por ejemplo, el sistema portador puede comprender un medio de almacenamiento tal como una memoria de solo lectura, por ejemplo un CD-ROM o una memoria de solo lectura semiconductora, o un medio de registro magnético, por ejemplo un disquete o un disco duro. Más aun, el sistema portador puede ser una señal portadora transmisible tal como una señal eléctrica u óptica que pueda ser conducida a través de un cable eléctrico u óptico o por radio o por otros medios.
Cuando el programa es incorporado a una señal que puede ser conducida directamente por un cable o por otro dispositivo o medio, el sistema portador puede estar constituido por dicho cable o por otro dispositivo o medio. Alternativamente, el sistema portador puede ser un circuito integrado en el que el programa está embebido, estando el circuito integrado adaptado para desarrollar, o para utilizarse en el desarrollo de, los procesos relevantes.
Los expertos en la técnica apreciarán que el invento puede ser aplicado a teléfonos móviles que no se ajustan a la especificación GSM. Más aun, pueden recuperarse datos de página web utilizando protocolos diferentes del Protocolo de Aplicaciones Inalámbricas.
Las realizaciones primera a quinta describe cinco codificadores diferentes. Los expertos en la técnica apreciarán que cualquiera de estos cinco codificadores podría utilizarse en las realizaciones y aplicaciones adicionales descritas anteriormente.
En una realización, el generador de señales de datos y el codificador están en unidades físicamente separadas, y la señal de datos se aplica a un puerto de entrada de la unidad codificadora. En una realización alternativa, el codificador y el decodificador podrían ser alojados en la misma unidad (es decir, compartir un alojamiento común).
En la segunda realización, la frecuencia de portadora utilizada en el modulador es variada de modo que la frecuencia central de la señal de datos de dispersión este posicionada en una porción de la pista de audio de energía relativamente alta. En particular, se monitoriza la energía contenida en las 2.048 subbandas de frecuencia y se varía consecuentemente la frecuencia de portadora del modulador. En una realización alternativa, el número de subbandas de frecuencia podría reducirse, por ejemplo a ocho, con el fin de reducir el volumen de procesamiento requerido.
En el decodificador para la segunda realización, la pista de audio recibida se analiza para determinar la frecuencia de portadora utilizada en el modulador en el codificador. Sin embargo, si el codificador utiliza un número pequeño de subbandas de frecuencia, siendo solo posibles por consiguiente un número pequeño de frecuencias de portadora, entonces en una realización alternativa el demodulador en el decodificador hace pasar la pista de audio recibida a través de un cierto número de canales separados donde cada canal utiliza una respectiva frecuencia de portadora de entre las posibles, y subsiguientemente determina qué canal proporciona la señal más fuerte con el fin de recuperar la señal de datos. Esto tiene la ventaja, comparado con la determinación de la frecuencia de portadora a partir de la pista de audio recibida, de que si la pista de audio es alterada por el canal de comunicación entre el codificador y el decodificador la señal de datos todavía es recuperada correctamente.
En la tercera realización, un algoritmo de codificación predictiva lineal (LPC) se utiliza para separar la pista de audio en una parte tonal, cuyos valores pueden determinarse unos a partir de otros, y una parte ruidosa, cuyos valores son aparentemente aleatorios. Alternativamente, otros algoritmos auto regresivos podrían utilizarse para aislar una parte aleatoria de la pista de audio que puede ser al menos parcialmente reemplazada por una señal de espectro disperso conformada. Más aun, el espectro de frecuencia de la pista de audio podría ser analizado para identificar componentes tonales que son subsiguientemente removidas para separar la parte tonal y la parte ruidosa.
En la cuarta realización, la tonalidad de la pista de audio se determina mediante el análisis del espectro de frecuencia de la pista de audio. Alternativamente, la tonalidad podría ser determinada mediante la aplicación de un modelo de series temporales, por ejemplo un modelo de codificación predictiva lineal, que tuviese un número fijo de coeficientes, y mediante la determinación de la potencia en la señal modelada correspondiente a dichos coeficientes.
En la quinta realización, el número de coeficientes de predicción lineal, el nivel de codificación psico-acústica y el factor de ganancia G utilizado en el combinador variable son seleccionados por el usuario. Alternativamente, los valores de una o dos o las tres variables mencionadas podrían ser automáticamente fijados por el codificador. Por ejemplo, el número de coeficientes de predicción lineal utilizados podría determinarse a partir de la tonalidad de la pista de audio.
En la quinta realización, la parte de ruido N(t) y la señal conformada S(t) se aplican a un combinador variable, y la salida del combinador variable se suma a la parte tonal P(t) para formar la pista de audio modificada. Alternativamente, la pista de audio original podría ser aplicada al combinador variable en lugar de la parte de ruido N(t), como en la cuarta realización, de modo que la salida del combinador variable forme la pista de audio modificada y el análisis de codificación predictiva lineal sea solo utilizado para conformar la señal modulada G(t). En otras palabras, la señal modulada G(t) es conformada para aproximar la parte de ruido N(t) de una pista de audio para formar una señal conformada S(t), y a continuación la señal conformada S(t) se suma directamente a la pista de audio en un combinador variable. En una realización, el factor de ganancia G para el combinador variable es automáticamente fijado de modo que la relación señal a ruido de la señal de datos en la pista de audio modificada está a dentro de un intervalo predeterminado, por ejemplo entre -10 y -15dB. La relación señal a ruido puede ser calculada introduciendo la señal de datos conformada S(t) en un primer monitor de potencia, introduciendo la pista de audio en un segundo monitor de potencia, y a continuación dividiendo la potencia de la señal de datos conformada entre el nivel de potencia total obtenido al sumar la potencia de la pista de audio con la potencia de la señal de datos conformada. Alternativamente, la relación señal a ruido podría ser calculada dividiendo la potencia de la señal de datos conformada entre la potencia de la pista de audio.
Los expertos en la técnica apreciarán que para algunas aplicaciones las técnicas de conformación descritas para conformar la señal de datos con el fin de reducir las molestias asociadas a la señal de datos en la pista de audio modificada no se requieren, ya que no es esencial que la pista de audio se reproduzca con alta calidad.
Adicionalmente, el codificador de la quinta realización podría ser modificado para eliminar el combinador variable, en cuyo caso la señal conformada utilizando el algoritmo psico-acústico se suma directamente a la parte tonal de la pista de audio.
Para codificadores automatizados que no requieren una entrada de usuario, la codificación puede ser llevada a cabo en tiempo real y por consiguiente es apropiado para, por ejemplo, adiciones en tiempo real a emisiones de televisión
o anuncios por megafonía pública.
En las realizaciones descritas, la señal de datos F(t) es sumada continuamente a la pista de audio. Alternativamente, el codificador podría identificar las porciones de la pista de audio más apropiadas para ocultar la señal de datos para a continuación codificar solamente datos en dichas porciones. En una realización, la pista de audio se introduce en un analizador de espectro que determina la tonalidad de pista de audio (por ejemplo el analizador 201 de espectro de la quinta realización) y solo se suma la señal de datos en las porciones de la pista de audio para las cuales la tonalidad está por debajo de un nivel predeterminado. En otra realización, el codificador determina qué porciones son más apropiadas para ocultar la señal de datos basándose en la potencia de la pista de audio, mientras que en otra realización el codificador determina las porciones basándose en una combinación de potencia y tonalidad.
Como se describió anteriormente, en algunas aplicaciones los datos de control para sincronizar una operación de un teléfono móvil con una señal de audio emitida, por ejemplo para un programa de televisión o un programa de radio, se codifican dentro de la señal de audio y la onda acústica correspondiente a la señal de audio es detectada por un teléfono móvil que decodifica los datos de control y responde con la sincronización requerida. Un problema asociado a tales sistemas sincronizados es que a veces en el momento en el que se requiere la respuesta del teléfono móvil la pista de audio es demasiado silenciosa para ocultar los datos de control de manera efectiva. Este problema puede ser aliviado mediante el envío de los datos de control por adelantado durante una porción más sonora de la pista de audio junto con datos de temporización indicando el instante en el que el teléfono móvil debería responder de acuerdo con los datos de control. Entonces no sería necesario transmitir datos en la porción más silenciosa de la pista de audio en el momento en que la respuesta tiene lugar.
Los datos de temporización no necesitan ser transmitidos simultáneamente con los datos de control, sino que podrían ser transmitidos de manera separada. Por ejemplo, al principio de una señal de datos que transporta una secuencia de datos de control, podrían transmitirse datos de temporización indicando que la respuesta a cada ítem de datos de control debe ser retrasada por un período de tiempo prefijado. Aunque el retardo temporal no está optimizado para cada ítem de datos de control, el envío de datos de temporización con este método reduce el volumen total de datos que necesitan ser enviados.
En las realizaciones primera a octava, la señal de datos es dispersada en un rango de frecuencias audibles utilizando codificación de espectro disperso de secuencia directa (DSSS). Como apreciarán los expertos en la técnica, pueden decodificarse señales codificadas utilizando codificación de espectro disperso de secuencia directa mediante dos procedimientos generales. En un método, la señal codificada se multiplica de manera síncrona por el mismo código de ruido pseudoaleatorio que fue utilizado para codificar la señal, una técnica comúnmente referida como detección coherente. En el otro método, un correlador tal como un filtro adaptado se utiliza para correlacionar la señal codificada con el código de ruido pseudoaleatorio que fue utilizado para codificar la señal, una técnica comúnmente referida como detección incoherente.
En las realizaciones primera a quinta, un bit de datos cuyo valor es "0" se representa por un código de ruido pseudoaleatorio PN0 y un bit de datos cuyo valor es "1" se representa por un código de ruido pseudoaleatorio PN1. Los expertos en la técnica apreciarán que si se utiliza decodificación coherente, entonces el código de ruido pseudoaleatorio PN0 puede ser el inverso del código de ruido pseudoaleatorio PN1.
En una realización, una primera pluralidad de códigos de ruido pseudoaleatorios se proporciona para representar un bit de datos cuyo valor es "0" y una segunda pluralidad de códigos de ruido pseudoaleatorios se proporciona para representar un bit de datos cuyo valor es ”1”. La elección del código de ruido pseudoaleatorio a utilizar para codificar un bit de datos puede entonces basarse en qué código de ruido pseudoaleatorio produce una señal de datos que es al menos perceptible cuando se suma a la pista de audio. Subsiguientemente, el decodificador podría bien analizar la pista de audio para determinar qué código de ruido pseudoaleatorio ha sido utilizado, o bien decodificar la pista de audio recibida utilizando todos los posibles códigos de ruido pseudoaleatorios. La decodificación que utiliza todos los posibles códigos de ruido pseudoaleatorios tiene la ventaja de que la decodificación es más robusta si el canal de comunicación entre el codificador y el decodificador altera la pista de audio. Sin embargo, si existen un gran número de códigos de ruido pseudoaleatorios, entonces el análisis de la pista de audio para determinar qué código de ruido pseudoaleatorio se utilizó requiere mucha menos potencia de procesamiento.
La energía de la señal de datos puede ser dispersada en un intervalo de frecuencias ancho utilizando técnicas diferentes a la codificación de espectro disperso de secuencia directa. Por ejemplo, una técnica de Modulación por División Ortogonal de Frecuencia (OFDM) puede utilizarse en la que, por ejemplo, 256 portadoras ortogonales de banda estrecha transportan los mismos datos. Estas 256 portadoras de banda estrecha están distribuidas uniformemente en el intervalo de frecuencias de 1 a 5 kHz, consiguiéndose por lo tanto una dispersión en la energía de la señal de datos. La señal de datos original puede reconstruirse entonces mediante la demodulación de cada una de las señales de banda estrecha.
Una persona experta en la técnica apreciará que incluso técnicas adicionales podrían utilizarse para dispersar la energía de la señal de datos. Por ejemplo, podrían utilizarse técnicas de transmisión por salto de frecuencia en las que la frecuencia de la señal de datos modulada varía de modo aleatorio.
Aunque se prefiere la codificación de espectro disperso porque reduce la perceptibilidad del canal de datos acústicos para un oyente, no es una característica esencial del invento. El canal de datos acústico podría también ser formado, por ejemplo, usando un rango de frecuencia estrecha dedicado. Alternativamente, una señal de datos podría codificarse dentro de una pista de audio mediante la modificación sistemática de la información de frecuencia o de tiempo en el seno de la pista de audio. Por ejemplo, podría utilizarse un esquema de modulación de eco en el cual una señal de eco es sumada con un retardo temporal que varía de acuerdo con una señal de datos. Alternativamente, una técnica de codificación de banda crítica podría utilizarse en la cual cada valor de datos es asociado con un conjunto respectivo de frecuencias de banda estrecha.
En otra realización, el canal de datos acústicos utiliza un enlace ultrasónico que tiene la ventaja de que no es audible para el usuario de teléfono móvil.
En las realizaciones primera a octava, se utiliza modulación por cifrado de desplazamiento de fase para modular la señal de datos de dispersión. Los expertos en la técnica apreciarán que otros esquemas de modulación, por ejemplo modulación por cifrado de desplazamiento de frecuencia o modulación de amplitud en cuadratura, podrían utilizarse en su lugar.
Para facilitar la explicación, la señal de datos en las realizaciones descritas ha sido codificada dentro de un único canal de pista de audio. Sin embargo, la señal de datos también podría codificarse dentro de una pista de audio estéreo que tuviese dos o más canales. La señal de datos puede ser sumada de manera síncrona a más de un canal de la pista de audio estéreo o con un desplazamiento de tiempo de, por ejemplo, 150 ms entre los canales. La introducción de un desplazamiento de tiempo tiene la ventaja de añadir un nivel adicional de diversidad temporal, permitiendo consecuentemente una regeneración más robusta de la señal de datos ya que existe una menor probabilidad de perder datos debido a ruido de fondo (es decir, ruido que no es la pista de audio modificada). Alternativamente, dos señales de banda ancha diferentes podrían generarse sumándose cada una de ellas al canal respectivo de la pista de audio estéreo.
Alternativamente, para una pista de audio multicanal, la señal de datos no necesita ser codificada en todos los canales de la pista de audio. Por ejemplo, para un programa de televisión en el que un canal de la pista de audio transporta datos de voz y otro canal de la pista de audio transporta datos de música de fondo, la señal de datos podría sumarse solamente al canal que transporta datos de música de fondo.
En algunos realizaciones, un algoritmo psico-acústico se utiliza para reducir las molestias generadas por la señal de datos dentro de la pista de audio modificada. Sin embargo, un algoritmo psico-acústico no es esencial y podría ser reemplazado por un algoritmo más sencillo que requiriese menor potencia de procesamiento.
Los expertos en la técnica apreciarán que técnicas convencionales de ecualización , por ejemplo utilizando un receptor rake, pueden aplicarse en el decodificador para mejorar la tasa de error binario en presencia de componentes multi-trayecto o de deterioros en la respuesta en frecuencia. Más aun, un circuito de control automático de ganancia podría ser incluido a la entrada del decodificador.
Los valores precisos de la velocidad de transmisión de bits, velocidad de transmisión de chips, frecuencias de muestreo y frecuencias de modulación descritas en las realizaciones detalladas no son características esenciales del invento y pueden ser variadas sin desviarse del invento. Más aun, mientras que en las realizaciones descritas la señal de datos es una señal binaria, la señal de datos podría ser cualquier señal de banda estrecha, por ejemplo una señal modulada en la que se ha utilizado modulación por cifrado de desplazamiento de frecuencia para representar un bit ”1” mediante una primera frecuencia y un bit “0” como una segunda frecuencia diferente. Más aun, los expertos en la técnica apreciarán que el orden en el que se lleven a cabo la dispersión, la modulación, y la conformación en el codificador puede variarse. Aunque las técnicas de procesamiento digital de señal se han descrito como implementación preferida del invento, podrían utilizarse técnicas de procesamiento analógico en su lugar.
Como apreciarán los expertos en la técnica, la frecuencia de muestreo de 22,05 kHz coincide con la utilizada para un canal de un disco compacto y por consiguiente los codificadores y decodificadores descritos para estas realizaciones son adecuados para utilizarse en sistemas en los que una señal de datos es transportada por una pista de audio grabada en un disco compacto. Una frecuencia de muestreo de 44,1 kHz podría también utilizarse para grabar la señal de datos en un disco compacto, y una frecuencia de muestreo de 48 kHz podría utilizarse para grabar la señal de datos en un DVD.
Será apreciado que el término pista de audio se refiere a una señal eléctrica que se pretende sea reproducida como una señal acústica correspondiente por un altavoz en el intervalo audible de frecuencias, que típicamente abarca desde 20 Hz a 20.000 Hz. La duración de la pista de audio puede ser corta, por ejemplo un tono de llamada de un teléfono móvil o un timbre de puerta, o larga, por ejemplo la banda sonora de una película.

Claims (16)

  1. REIVINDICACIONES
    1. Un teléfono móvil que comprende:
    memoria (125) que almacena , en uso, información de identificación asociada con una dirección de telecomunicaciones del teléfono móvil:
    un micrófono (23) para recibir una señal acústica de una voz de usuario o de una transmisión de audio que comprende una señal de datos codificada en la misma para convertir la señal acústica recibida en una señal eléctrica correspondiente:
    un procesador de radiofrecuencia (121) operable para transmitir voz y / o señales de datos y para recibir voz y / o señales de datos desde una red de telefonía móvil (35, 39):
    Un procesador de datos (115), acoplado a dicho micrófono (23) y a dicho procesador de radiofrecuencias (121), y operable, en un primer modo,: para causar señales de voz correspondientes a la voz del usuario para ser pasadas a dicho procesador de radiofrecuencias (121) para la transmisión a dicha red de telefonía móvil (35,39), y operable, en un segundo modo,: para procesar señales de transmisión de audio que comprenden una señal de datos codificada en la misma recibida por dicho micrófono (23) para obtener datos de índices de audiencia relativos a la transmisión de audio, y operable para pasar al procesador de radiofrecuencia (121) para la transmisión a una estación de índices de audiencia remota (551), para el análisis de índices de audiencia, representación de datos: i) la información de identificación almacenada asociada al teléfono móvil (21): y ii) los datos de índices de audiencia obtenidos.
  2. 2. Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que dicho procesador de radiofrecuencias (121) es operable para transmitir dichos datos representando dicha información de identificación asociada al teléfono móvil
    (21) y dichos datos de índices de audiencia a dicha estación de índices de audiencia remota (551) a través de la red de telecomunicaciones del móvil.
  3. 3.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que dichos datos de índices de audiencia son codificados en la transmisión de audio y donde dicho procesador de datos (115) es operable para decodificar los datos codificados de índices de audiencias.
  4. 4.
    Un teléfono móvil (21) de acuerdo con la reivindicación 3, en el que dichos datos de índices de audiencia son codificados en el audio mediante codificación de espectro extendido y en donde dicho procesador de datos (115) es operable para decodificar los datos codificados de índices de audiencias mediante codificación de espectro extendido.
  5. 5.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que los datos de índices de audiencias comprenden datos que identifican la transmisión de audio.
  6. 6.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que la información de identificación asociada al teléfono móvil (21) comprende el número de teléfono del teléfono móvil.
  7. 7.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que dicho procesador de radiofrecuencias (121) es operable para transmitir dichos datos representando automáticamente dicha información de identificación asociada teléfono móvil (21) y los datos de índices de audiencias a la estación de índices de audiencia remota (551).
  8. 8.
    Un teléfono móvil (21) de acuerdo con la reivindicación 7, en el que dicho procesador de radiofrecuencias (121) es operable para transmitir dichos datos representando dicha información de identificación asociada al teléfono móvil
    (21) y los datos de índices de audiencias inmediatamente después de que los datos de índices de audiencia hayan sido obtenidos.
  9. 9.
    Un teléfono móvil (21) de acuerdo con la reivindicación 8, en el que los datos de índices de audiencia comprenden datos que identifican un canal de emisión asociado a la transmisión de audio.
  10. 10.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que la memoria almacena, en uso, los datos asociados al perfil de usuario del teléfono móvil (21) y en donde el procesador de radiofrecuencia (121) es operable para transmitir los datos de perfil de usuario así como los datos de índices de audiencia a dicha estación de índices de audiencia remota (551) a través de la red de telecomunicaciones.
  11. 11.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que la memoria almacena, en uso, la información de posición que define una posición del teléfono móvil (21) y en donde el procesador de radiofrecuencias (121) es operable para transmitir la información de posición almacenada a la estación de índices de audiencia remota (551).
  12. 12.
    Un teléfono móvil (21) de acuerdo con la reivindicación 11, en donde dicho procesador de datos (115) es operable para procesar señales de dicho micrófono (23) para determinar dicha información de posición.
  13. 13.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en el que dichos datos de índices de audiencia identifican un programa de radio o televisión distribuido o grabado.
  14. 14.
    Un teléfono móvil (21) de acuerdo con la reivindicación 1, en donde los datos recuperados de la transmisión de audio causan que el teléfono móvil (21) muestre una pregunta a un usuario para encuesta de opinión.
    5 15. Un teléfono móvil (21) de acuerdo con la reivindicación 14, operable para recibir una respuesta del usuario y en donde dicho procesador de radiofrecuencias (121) es operable para transmitir dicha respuesta a un dispositivo remoto para colación con las correspondientes respuestas de otros usuarios para propósitos de encuesta de opinión.
  15. 16. Un teléfono móvil (21) de acuerdo con la reivindicación 15, que comprende un botón (33) para la activación por parte de un usuario para responder a la pregunta.
    10 17. Un teléfono móvil (21) de acuerdo con la reivindicación 15, en el que la transmisión de audio es programa de radio o televisión y en el que la pregunta se refiere a un contenido del programa de radio o televisión.
  16. 18. Un método para obtener datos de índices de audiencia relativos a una transmisión de audio que comprende una señal de datos codificada en la misma, caracterizada porque los datos de índice de audiencias son obtenidos utilizando un teléfono móvil de cualquiera de las reivindicaciones 1 a 17 para procesar las señales de transmisión de
    15 audio que comprende una señal de datos codificada en el misma recibida a través del micrófono (23) del teléfono móvil para obtener datos de índices de audiencia relativos a la transmisión de audio, y para transmitir los datos de índice de audiencias obtenidos junto con la información de identificación asociada al teléfono móvil a una estación de índices de audiencia remota (551), para el análisis de índices de audiencia.
ES08101912T 2000-11-30 2001-11-30 Telefono móvil para recoger datos de índices de audiencia Expired - Lifetime ES2388357T3 (es)

Applications Claiming Priority (20)

Application Number Priority Date Filing Date Title
GB0029273A GB0029273D0 (en) 2000-11-30 2000-11-30 Acoustic control system
GB0029273 2000-11-30
GB0101947 2001-01-25
GB0101953 2001-01-25
GB0101953A GB0101953D0 (en) 2001-01-25 2001-01-25 Best fit optimisation
GB0101947A GB0101947D0 (en) 2001-01-25 2001-01-25 Signal coding
GB0105869 2001-03-09
GB0105869A GB0105869D0 (en) 2001-03-09 2001-03-09 Mobile tracking
GB0106587 2001-03-16
GB0106587A GB0106587D0 (en) 2001-03-16 2001-03-16 Acoustic mobile monitor
GB0106778A GB0106778D0 (en) 2001-03-19 2001-03-19 Acoustic control system
GB0106778 2001-03-19
GB0107124 2001-03-21
GB0107124A GB0107124D0 (en) 2001-03-21 2001-03-21 Noise substitution
GB0111016 2001-05-04
GB0111016A GB0111016D0 (en) 2001-05-04 2001-05-04 Mobile tracking
GB0114714 2001-06-15
GB0114714A GB0114714D0 (en) 2001-06-15 2001-06-15 Communication system
GB0127013A GB0127013D0 (en) 2001-11-09 2001-11-09 Communication system
GB0127013 2001-11-09

Publications (1)

Publication Number Publication Date
ES2388357T3 true ES2388357T3 (es) 2012-10-11

Family

ID=27579344

Family Applications (2)

Application Number Title Priority Date Filing Date
ES08101912T Expired - Lifetime ES2388357T3 (es) 2000-11-30 2001-11-30 Telefono móvil para recoger datos de índices de audiencia
ES01999047T Expired - Lifetime ES2315321T3 (es) 2000-11-30 2001-11-30 Aparato y sistema para utilizar una señal de datos embebida en una señal acustica.

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES01999047T Expired - Lifetime ES2315321T3 (es) 2000-11-30 2001-11-30 Aparato y sistema para utilizar una señal de datos embebida en una señal acustica.

Country Status (10)

Country Link
US (2) US7796978B2 (es)
EP (3) EP1928109B1 (es)
JP (4) JP2004531103A (es)
CN (4) CN101282541B (es)
AT (1) ATE411658T1 (es)
AU (1) AU2002220858A1 (es)
DE (1) DE60136213D1 (es)
DK (2) DK1928109T3 (es)
ES (2) ES2388357T3 (es)
WO (1) WO2002045273A2 (es)

Families Citing this family (194)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US8364136B2 (en) * 1999-02-01 2013-01-29 Steven M Hoffberg Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system
ES2388357T3 (es) * 2000-11-30 2012-10-11 Intrasonics S.A.R.L. Telefono móvil para recoger datos de índices de audiencia
US20050107099A1 (en) * 2001-06-21 2005-05-19 Petra Schutze Method and device for transmitting information
ES2420909T3 (es) * 2001-12-24 2013-08-27 Intrasonics S.A.R.L. Sistema de subtitulación
US7603321B2 (en) * 2002-05-22 2009-10-13 Gurvey Amy R Electronic system and method coupling live event ticketing and interactive entries with the sale, distribution and transmission of event recordings, mastering system and intelligent terminal designs
TW569602B (en) * 2002-07-08 2004-01-01 Benq Corp Device and method for playing a ring signal based on a mediate ring information in a communication apparatus
US6985720B2 (en) * 2002-07-12 2006-01-10 Qualcomm, Incorporated Apparatus and method for transparent and integrated wireless messaging in a multi-mode environment
US7239981B2 (en) 2002-07-26 2007-07-03 Arbitron Inc. Systems and methods for gathering audience measurement data
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
US7222071B2 (en) 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
AU2003275382A1 (en) * 2002-10-02 2004-04-23 Nielsen Media Research, Inc. Methods and apparatus to present survey information
FI116113B (fi) * 2002-11-29 2005-09-15 Jutel Oy Menetelmä ja järjestelmä radio-ohjelman lähettämiseksi
GB0229693D0 (en) * 2002-12-19 2003-01-29 Koninkl Philips Electronics Nv Location determination method and system
KR20050106393A (ko) 2002-12-27 2005-11-09 닐슨 미디어 리서치 인코퍼레이티드 메타데이터를 트랜스코딩하는 방법 및 장치
US7930721B1 (en) * 2003-04-02 2011-04-19 Lodgenet Interactive Corporation Method and system for offering interactive controls in a lodging entertainment system
WO2004107147A2 (en) * 2003-06-02 2004-12-09 Koninklijke Philips Electronics N.V. Opto-electronic input device, method of manufacturing such a device and method of measuring the movement of an object by means of such a device
US7116632B2 (en) * 2003-06-05 2006-10-03 Meshnetworks, Inc. System and method for determining synchronization point in OFDM modems for accurate time of flight measurement
GB0316969D0 (en) * 2003-07-19 2003-08-27 Koninkl Philips Electronics Nv Improved battery powered devices
US20050048918A1 (en) * 2003-08-29 2005-03-03 Onami, Llc Radio controller system and method for remote devices
GB2406475A (en) * 2003-09-29 2005-03-30 Nokia Corp Inductive loop extension device
CN103338389B (zh) 2003-10-17 2016-11-02 尼尔森(美国)有限公司 便携式多功能受众测量系统
WO2005071961A1 (en) * 2004-01-14 2005-08-04 Nielsen Media Research, Inc. Portable audience measurement architectures and methods for portable audience measurement
US20050114891A1 (en) * 2003-11-20 2005-05-26 Reidar Wasenius Method of controlling a TV apparatus
US20060239469A1 (en) * 2004-06-09 2006-10-26 Assaf Gil Story-telling doll
US20060040638A1 (en) * 2004-08-17 2006-02-23 Mcquaide Arnold Jr Hand-held remote personal communicator & controller
US20060041923A1 (en) * 2004-08-17 2006-02-23 Mcquaide Arnold Jr Hand-held remote personal communicator & controller
DE102004045481A1 (de) * 2004-09-20 2006-03-30 Siemens Ag Interaktives Fernsehen mit Zusatzinformationen und Rückkanal über ein Mobilfunkkommunikationssystem
WO2006049424A1 (en) * 2004-11-02 2006-05-11 Yong-Seok Jeong Method and apparatus for requesting service using access code
US8364125B2 (en) * 2004-11-09 2013-01-29 Avaya, Inc. Content delivery to a telecommunications terminal that is associated with a call in progress
US20060203888A1 (en) * 2005-03-10 2006-09-14 Moore George S Interface randomization methods and systems employing the same
US7908555B2 (en) * 2005-05-31 2011-03-15 At&T Intellectual Property I, L.P. Remote control having multiple displays for presenting multiple streams of content
TWI288879B (en) * 2005-09-19 2007-10-21 High Tech Comp Corp An audio signal output devices and a method for arbitrating thereof
US8611856B2 (en) * 2005-10-18 2013-12-17 Google Inc. Identifying spurious requests for information
EP2421183B1 (en) 2005-10-21 2014-12-17 Nielsen Media Research, Inc. Audience metering in a portable media player using frame tags inserted at intervals for counting the number of presentings of content.Index with offset to closest I-pictures entry for random access in a bitstream.
FI20051294A0 (fi) * 2005-12-19 2005-12-19 Noveltech Solutions Oy Signaalinkäsittely
US8527320B2 (en) 2005-12-20 2013-09-03 Arbitron, Inc. Methods and systems for initiating a research panel of persons operating under a group agreement
US20090005019A1 (en) * 2006-01-19 2009-01-01 Jagrut Patel Location Specific Communications
US20060116142A1 (en) * 2006-02-07 2006-06-01 Media Lab Europe (In Voluntary Liquidation) Well Behaved SMS notifications
EP3010167B1 (en) 2006-03-27 2017-07-05 Nielsen Media Research, Inc. Methods and systems to meter media content presented on a wireless communication device
JP2007264931A (ja) * 2006-03-28 2007-10-11 Fujitsu Ltd 表示回答システム、表示回答装置、および表示回答プログラム
WO2007143394A2 (en) 2006-06-02 2007-12-13 Nielsen Media Research, Inc. Digital rights management systems and methods for audience measurement
US20080028094A1 (en) * 2006-07-31 2008-01-31 Widerthan Co., Ltd. Method and system for servicing bgm request and for providing sound source information
US20080108328A1 (en) * 2006-11-08 2008-05-08 Sybase 365, Inc. System and Method for Enhanced Public Address System
GB0710211D0 (en) * 2007-05-29 2007-07-11 Intrasonics Ltd AMR Spectrography
IL184052A (en) * 2007-06-19 2014-08-31 E N T T Ltd Voice animation system and method
US8660845B1 (en) * 2007-10-16 2014-02-25 Adobe Systems Incorporated Automatic separation of audio data
US8077628B2 (en) * 2008-02-12 2011-12-13 International Business Machines Corporation Mobile device peer volume polling
US8140016B2 (en) * 2008-03-13 2012-03-20 Sony Ericsson Mobile Communications Ab Wireless communication terminals and methods using acoustic ranging synchronized to RF communication signals
JP5266845B2 (ja) * 2008-04-01 2013-08-21 富士通モバイルコミュニケーションズ株式会社 携帯電話機
DE102008021701A1 (de) 2008-04-28 2009-10-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Lokalisation mindestens eines Gegenstandes
CA2725583A1 (en) * 2008-05-29 2009-12-03 Tomtom International B.V. Portable electronic communications apparatus, communications system, method of purging error data therefor and method of reducing re-tuning delay therefor
GB2460306B (en) 2008-05-29 2013-02-13 Intrasonics Sarl Data embedding system
US9224395B2 (en) * 2008-07-02 2015-12-29 Franklin S. Felber Voice detection for automatic volume controls and voice sensors
EP2261896B1 (en) * 2008-07-29 2017-12-06 Yamaha Corporation Performance-related information output device, system provided with performance-related information output device, and electronic musical instrument
WO2010013754A1 (ja) * 2008-07-30 2010-02-04 ヤマハ株式会社 オーディオ信号処理装置、オーディオ信号処理システム、およびオーディオ信号処理方法
US8942388B2 (en) * 2008-08-08 2015-01-27 Yamaha Corporation Modulation device and demodulation device
DE102008048741A1 (de) * 2008-09-24 2010-04-08 Siemens Aktiengesellschaft System und Verfahren zur Gepäckausgabe
EP2337376A4 (en) * 2008-09-24 2014-02-26 Yamaha Corp DEVICE FOR MEASURING A CONTROL CIRCUIT REINFORCEMENT AND DEVICE FOR FEEDBACK PREVENTION
US9028260B2 (en) * 2008-09-29 2015-05-12 Cisco Technology, Inc. Automated quiz generation system
US8121830B2 (en) 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
EP2605485B1 (en) * 2008-10-31 2017-05-03 Orange Communication system incorporating ambient sound pattern detection and method of operation thereof
US8508357B2 (en) 2008-11-26 2013-08-13 The Nielsen Company (Us), Llc Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking
US8972496B2 (en) * 2008-12-10 2015-03-03 Amazon Technologies, Inc. Content sharing
US9131316B2 (en) * 2008-12-11 2015-09-08 Qualcomm Incorporated Sharing public addressing system using personal communication devices in an ad-hoc network
US9674562B1 (en) 2008-12-18 2017-06-06 Vmware, Inc. Quality evaluation of multimedia delivery in cloud environments
US9214004B2 (en) 2008-12-18 2015-12-15 Vmware, Inc. Watermarking and scalability techniques for a virtual desktop planning tool
US8788079B2 (en) * 2010-11-09 2014-07-22 Vmware, Inc. Monitoring audio fidelity and audio-video synchronization
JP5332602B2 (ja) * 2008-12-26 2013-11-06 ヤマハ株式会社 サービス提供装置
KR20110116201A (ko) * 2009-02-05 2011-10-25 디지맥 코포레이션 휴대 전화용 tv 위젯의 텔레비전 기반 광고 및 배포
CN101848280A (zh) * 2009-03-25 2010-09-29 深圳富泰宏精密工业有限公司 静音播放音乐的省电系统及方法
US20100268573A1 (en) * 2009-04-17 2010-10-21 Anand Jain System and method for utilizing supplemental audio beaconing in audience measurement
US10008212B2 (en) * 2009-04-17 2018-06-26 The Nielsen Company (Us), Llc System and method for utilizing audio encoding for measuring media exposure with environmental masking
US20100268540A1 (en) * 2009-04-17 2010-10-21 Taymoor Arshi System and method for utilizing audio beaconing in audience measurement
US8548613B2 (en) * 2009-04-20 2013-10-01 Disney Enterprises, Inc. System and method for an interactive device for use with a media device
CA2760677C (en) 2009-05-01 2018-07-24 David Henry Harkness Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
WO2011042748A2 (en) * 2009-10-07 2011-04-14 Elliptic Laboratories As User interfaces
DE102009052298A1 (de) * 2009-11-09 2011-05-12 Robert Bosch Gmbh Mikrofonsystem
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US20110153391A1 (en) * 2009-12-21 2011-06-23 Michael Tenbrock Peer-to-peer privacy panel for audience measurement
US20130232198A1 (en) * 2009-12-21 2013-09-05 Arbitron Inc. System and Method for Peer-to-Peer Distribution of Media Exposure Data
US8768713B2 (en) * 2010-03-15 2014-07-01 The Nielsen Company (Us), Llc Set-top-box with integrated encoder/decoder for audience measurement
US8989883B2 (en) * 2010-03-25 2015-03-24 Verisign, Inc. Systems and methods for providing access to resources through enhanced audio signals
JP5782677B2 (ja) 2010-03-31 2015-09-24 ヤマハ株式会社 コンテンツ再生装置および音声処理システム
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US20110265110A1 (en) * 2010-04-23 2011-10-27 Weinblatt Lee S Audience Monitoring System Using Facial Recognition
US9558755B1 (en) 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
US8532804B2 (en) * 2010-06-18 2013-09-10 Microsoft Corporation Predictive resampler scheduler algorithm
EP3518169B1 (en) 2010-09-22 2024-12-18 The Nielsen Company (US), LLC Methods and apparatus to determine impressions using distributed demographic information
GB2546026B (en) * 2010-10-01 2017-08-23 Asio Ltd Data communication system
GB2485139A (en) * 2010-10-22 2012-05-09 Vodafone Ip Licensing Ltd Analysing and securing mobile based transactions
CN102457332A (zh) * 2010-11-02 2012-05-16 北京网潮科技有限公司 移动终端定位方法、设备和系统
WO2012059960A1 (en) * 2010-11-05 2012-05-10 Panasonic Corporation Method, system and apparatus for interest reports
US9336117B2 (en) 2010-11-09 2016-05-10 Vmware, Inc. Remote display performance measurement triggered by application display upgrade
US8910228B2 (en) 2010-11-09 2014-12-09 Vmware, Inc. Measurement of remote display performance with image-embedded markers
US8837257B2 (en) 2010-11-29 2014-09-16 Verifone Systems, Incorporated Acoustic modulation protocol
US8850463B2 (en) * 2010-12-30 2014-09-30 Átila Leão FLORES XAVIER System and method for capturing parameters and recording events in portable devices with digital television receiver
CN103329556A (zh) * 2011-01-07 2013-09-25 雅马哈株式会社 信息提供系统、便携终端装置、服务器以及程序
US20130204415A1 (en) * 2011-03-25 2013-08-08 Verisign, Inc. Systems and methods for using signal-derived segmented identifiers to manage resource contention and control access to data and functions
JP6065362B2 (ja) * 2011-04-05 2017-01-25 ヤマハ株式会社 情報提供システム
US9380356B2 (en) 2011-04-12 2016-06-28 The Nielsen Company (Us), Llc Methods and apparatus to generate a tag for media content
KR101541637B1 (ko) * 2011-05-17 2015-08-03 알까뗄 루슨트 인코딩된 음향 신호를 통한 모바일 통신 디바이스와의 전자 거래를 위한 방법, 장치 및 시스템
WO2012158058A1 (en) 2011-05-19 2012-11-22 Alcatel Lucent Electronic transactions with mobile communication devices via encoded graphical representations
US8315620B1 (en) 2011-05-27 2012-11-20 The Nielsen Company (Us), Llc Methods and apparatus to associate a mobile device with a panelist profile
JP2013005377A (ja) * 2011-06-21 2013-01-07 Yamaha Corp 携帯端末装置および情報提供システム
US9209978B2 (en) 2012-05-15 2015-12-08 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9515904B2 (en) 2011-06-21 2016-12-06 The Nielsen Company (Us), Llc Monitoring streaming media content
US8805682B2 (en) * 2011-07-21 2014-08-12 Lee S. Weinblatt Real-time encoding technique
US8532644B2 (en) * 2011-09-23 2013-09-10 Alex Bell System effective to modulate a code and provide content to a user
US8401569B1 (en) * 2011-09-23 2013-03-19 Sonic Notify, Inc. System effective to demodulate a modulated code and provide content to a user
US20130079058A1 (en) * 2011-09-23 2013-03-28 Alex Bell Device effective to modulate a code and to provide content to a user
EP2573761B1 (en) 2011-09-25 2018-02-14 Yamaha Corporation Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus
US10270755B2 (en) 2011-10-03 2019-04-23 Verisign, Inc. Authenticated name resolution
US8990356B2 (en) 2011-10-03 2015-03-24 Verisign, Inc. Adaptive name resolution
US9024998B2 (en) 2011-10-27 2015-05-05 Pollycom, Inc. Pairing devices in conference using ultrasonic beacon
US9203633B2 (en) * 2011-10-27 2015-12-01 Polycom, Inc. Mobile group conferencing with portable devices
US9491404B2 (en) 2011-10-27 2016-11-08 Polycom, Inc. Compensating for different audio clocks between devices using ultrasonic beacon
JP5364141B2 (ja) * 2011-10-28 2013-12-11 楽天株式会社 携帯端末、店舗端末、送信方法、受信方法、決済システム、決済方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
JP5429826B2 (ja) * 2011-12-28 2014-02-26 株式会社スポットライト 超音波通信システム及びビーコン
JP5494677B2 (ja) 2012-01-06 2014-05-21 ヤマハ株式会社 演奏装置及び演奏プログラム
US10200751B2 (en) 2012-03-30 2019-02-05 The Nielsen Company (Us), Llc Methods, apparatus, and machine readable storage media to monitor a media presentation
GB201206564D0 (en) 2012-04-13 2012-05-30 Intrasonics Sarl Event engine synchronisation
KR20150020319A (ko) 2012-05-01 2015-02-25 엘아이에스엔알, 인크. 콘텐츠 전달 및 관리를 위한 시스템 및 방법
US11452153B2 (en) 2012-05-01 2022-09-20 Lisnr, Inc. Pairing and gateway connection using sonic tones
WO2013169935A1 (en) * 2012-05-08 2013-11-14 Zulu Holdings, Inc. Methods and apparatuses for communication of audio tokens
US9219559B2 (en) 2012-05-16 2015-12-22 The Nielsen Company (Us), Llc Methods and systems for audience measurement
US10105616B2 (en) 2012-05-25 2018-10-23 Mattel, Inc. IR dongle with speaker for electronic device
US20140019247A1 (en) * 2012-07-10 2014-01-16 Cirrus Logic, Inc. Systems and methods for determining location of a mobile device based on an audio signal
US9812137B2 (en) 2012-07-25 2017-11-07 Paypal, Inc. Data communication using audio patterns systems and methods
EP2693392A1 (en) * 2012-08-01 2014-02-05 Thomson Licensing A second screen system and method for rendering second screen information on a second screen
US9519903B2 (en) * 2012-08-29 2016-12-13 24/7 Customer, Inc. Method and apparatus for proactive notifications based on the location of a user
US9305559B2 (en) 2012-10-15 2016-04-05 Digimarc Corporation Audio watermark encoding with reversing polarity and pairwise embedding
US20140111701A1 (en) * 2012-10-23 2014-04-24 Dolby Laboratories Licensing Corporation Audio Data Spread Spectrum Embedding and Detection
US20150294539A1 (en) * 2012-10-31 2015-10-15 Promotie Voor Speciale Evenementen - Belgium Method for remotely controlling human perceivable output of a plurality of devices, system, transmitter, device, software product and human unperceivable acoustic signal for performing the method
WO2014072742A1 (en) 2012-11-09 2014-05-15 Camelot Strategic Solutions Limited Improvements relating to audio visual interfaces
HK1176805A2 (en) * 2013-01-15 2013-08-02 X On Comm Ltd A method and system for wireless communication
JP5536243B1 (ja) * 2013-02-02 2014-07-02 郁雄 北岸 電子機器制御システム、電子機器制御方法、電子機器制御システム用のプログラム、及び電子機器制御ユニット
US9742554B2 (en) 2013-02-04 2017-08-22 Dolby Laboratories Licensing Corporation Systems and methods for detecting a synchronization code word
US9317872B2 (en) 2013-02-06 2016-04-19 Muzak Llc Encoding and decoding an audio watermark using key sequences comprising of more than two frequency components
US9201755B2 (en) 2013-02-14 2015-12-01 Vmware, Inc. Real-time, interactive measurement techniques for desktop virtualization
US9313544B2 (en) 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9325381B2 (en) 2013-03-15 2016-04-26 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor mobile devices
US20150039321A1 (en) 2013-07-31 2015-02-05 Arbitron Inc. Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device
US9711152B2 (en) 2013-07-31 2017-07-18 The Nielsen Company (Us), Llc Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio
US9332035B2 (en) 2013-10-10 2016-05-03 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9626863B2 (en) * 2013-10-29 2017-04-18 Rakuten Kobo Inc. Intermediate computing device that uses near-field acoustic signals to configure an end user device
TWI581605B (zh) * 2013-12-20 2017-05-01 Chunghwa Telecom Co Ltd Ringing assignment system and its method
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9900281B2 (en) 2014-04-14 2018-02-20 Verisign, Inc. Computer-implemented method, apparatus, and computer-readable medium for processing named entity queries using a cached functionality in a domain name system
KR101567333B1 (ko) * 2014-04-25 2015-11-10 주식회사 크레스프리 IoT 디바이스의 통신 설정을 위한 이동통신 단말기와 통신설정모듈 및 이동통신 단말기를 이용한 IoT 디바이스의 통신 설정 방법
GB2541784B (en) * 2014-05-08 2018-03-28 Mewt Ltd Synchronisation of audio and video playback
GB2525913B (en) * 2014-05-08 2018-03-28 Mewt Ltd Synchronisation of audio and video playback
GB2525912B (en) 2014-05-08 2018-02-28 Mewt Ltd Synchronisation of audio and video playback
EP2950467B1 (en) 2014-05-26 2018-07-25 Pepperl + Fuchs GmbH Acoustic data transmission system
US9319096B1 (en) * 2014-05-27 2016-04-19 Google Inc. Ultrasonic communication between devices
US9551588B2 (en) 2014-08-29 2017-01-24 The Nielsen Company, LLC Methods and systems to determine consumer locations based on navigational voice cues
CN107112025A (zh) 2014-09-12 2017-08-29 美商楼氏电子有限公司 用于恢复语音分量的系统和方法
CN104243388B (zh) * 2014-09-25 2017-10-27 陈景竑 基于ofdm的声波通信系统
CN105607581B (zh) * 2014-09-26 2020-03-17 杜也兵 家用电器的控制部件的自检方法
EP3207639A4 (en) 2014-10-15 2018-04-11 Lisnr, Inc. Inaudible signaling tone
CN104486017B (zh) * 2014-11-07 2017-02-15 中国电子科技集团公司第二十八研究所 一种基于ip光传输的卫星授时多节点同步监测方法
US9584915B2 (en) * 2015-01-19 2017-02-28 Microsoft Technology Licensing, Llc Spatial audio with remote speakers
WO2016123560A1 (en) 2015-01-30 2016-08-04 Knowles Electronics, Llc Contextual switching of microphones
JP2016165052A (ja) * 2015-03-06 2016-09-08 Kddi株式会社 端末及びサーバ並びにプログラム
US9762965B2 (en) 2015-05-29 2017-09-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US20170128836A1 (en) * 2015-11-11 2017-05-11 Rovio Entertainment Ltd. Game content unlock method
US10791085B2 (en) 2015-11-12 2020-09-29 Verisign, Inc. Techniques for directing a domain name service (DNS) resolution process
PL414829A1 (pl) * 2015-11-17 2017-05-22 Audiolink Technologies Spółka Z Ograniczoną Odpowiedzialnością Sposób równoległego budowania przekazu informacji różnymi kanałami i układ do równoległego przesyłania informacji różnymi kanałami
JP2017134581A (ja) * 2016-01-27 2017-08-03 ヤマハ株式会社 情報処理装置および情報処理方法
US11233582B2 (en) 2016-03-25 2022-01-25 Lisnr, Inc. Local tone generation
FR3052614B1 (fr) * 2016-06-13 2018-08-31 Raymond MOREL Methode de codage par signaux acoustiques aleatoires et methode de transmission associee
GB2556023B (en) 2016-08-15 2022-02-09 Intrasonics Sarl Audio matching
US10999240B1 (en) 2016-08-31 2021-05-04 Verisign, Inc. Client controlled domain name service (DNS) resolution
US20180117479A1 (en) * 2016-09-13 2018-05-03 Elemental Path, Inc. Voice-Enabled Connected Smart Toy
GB201617409D0 (en) 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
GB201617408D0 (en) 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
JP6805819B2 (ja) * 2016-12-28 2020-12-23 日本電気株式会社 端末装置、情報提供システム、端末装置の処理方法、及びプログラム
GB201704636D0 (en) 2017-03-23 2017-05-10 Asio Ltd A method and system for authenticating a device
GB2565751B (en) 2017-06-15 2022-05-04 Sonos Experience Ltd A method and system for triggering events
US11032127B2 (en) 2017-06-26 2021-06-08 Verisign, Inc. Resilient domain name service (DNS) resolution when an authoritative name server is unavailable
US11189295B2 (en) 2017-09-28 2021-11-30 Lisnr, Inc. High bandwidth sonic tone generation
US10826623B2 (en) 2017-12-19 2020-11-03 Lisnr, Inc. Phase shift keyed signaling tone
GB2570634A (en) 2017-12-20 2019-08-07 Asio Ltd A method and system for improved acoustic transmission of data
CN112368958A (zh) * 2018-07-02 2021-02-12 雅马哈株式会社 广播系统、终端装置、广播方法、终端装置的动作方法及程序
US10924560B2 (en) * 2018-07-30 2021-02-16 Facebook, Inc. Determining geographic locations of network devices
US10469126B1 (en) * 2018-09-24 2019-11-05 Huawei Technologies Co., Ltd. Code synchronization for analog spread spectrum systems
CN111356999B (zh) 2018-10-22 2023-10-03 谷歌有限责任公司 经由音频信号识别网络源
JP7081452B2 (ja) * 2018-11-14 2022-06-07 オムロン株式会社 情報処理装置および情報処理装置の制御方法
US11988784B2 (en) 2020-08-31 2024-05-21 Sonos, Inc. Detecting an audio signal with a microphone to determine presence of a playback device
TWI760939B (zh) * 2020-11-25 2022-04-11 瑞昱半導體股份有限公司 音訊處理電路以及音訊處理方法

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2660662A (en) * 1947-10-24 1953-11-24 Nielsen A C Co Search signal apparatus for determining the listening habits of wave signal receiver users
US3845391A (en) * 1969-07-08 1974-10-29 Audicom Corp Communication including submerged identification signal
US3651471A (en) * 1970-03-02 1972-03-21 Nielsen A C Co Data storage and transmission system
US3742463A (en) * 1970-03-02 1973-06-26 Nielsen A C Co Data storage and transmission system
US3732536A (en) * 1970-09-18 1973-05-08 Gte Sylvania Inc Passive object detection apparatus including ambient noise compensation
US4025851A (en) * 1975-11-28 1977-05-24 A.C. Nielsen Company Automatic monitor for programs broadcast
US4237449A (en) * 1978-06-16 1980-12-02 Zibell J Scott Signalling device for hard of hearing persons
US4425642A (en) * 1982-01-08 1984-01-10 Applied Spectrum Technologies, Inc. Simultaneous transmission of two information signals within a band-limited communications channel
DE3229405C2 (de) 1982-08-06 1984-08-30 Werner 8000 München Janz Gerät zum Prüfen der Funktionsfähigkeit von Fernsteuersendern
US4514725A (en) * 1982-12-20 1985-04-30 Bristley Barbara E Window shade mounted alarm system
GB2135536A (en) 1982-12-24 1984-08-30 Wobbot International Limited Sound responsive lighting system and devices incorporating same
GB8314468D0 (en) * 1983-05-25 1983-06-29 Agb Research Plc Television monitoring
AU3290084A (en) 1983-09-16 1985-03-21 Audicom Corp. Encoding of transmitted program material
FR2568432B1 (fr) 1984-07-30 1990-06-29 Baranoff Rossine Dimitri Procede et dispositif de transmission d'informations codees par voie hertzienne en superposition a une emission traditionnelle en modulation de frequence
GB8609524D0 (en) 1986-04-18 1986-05-21 British Broadcasting Corp Video receivers & recorders
US4718106A (en) * 1986-05-12 1988-01-05 Weinblatt Lee S Survey of radio audience
US5108341A (en) * 1986-05-28 1992-04-28 View-Master Ideal Group, Inc. Toy which moves in synchronization with an audio source
GB2196167B (en) 1986-10-01 1991-01-02 Emi Plc Thorn Apparatus for marking a recorded signal
JPS6388673A (ja) * 1986-10-01 1988-04-19 Ikegami Tsushinki Co Ltd 双方向通信による市場調査装置
US4846693A (en) * 1987-01-08 1989-07-11 Smith Engineering Video based instructional and entertainment system using animated figure
US4750034A (en) * 1987-01-21 1988-06-07 Cloeck En Moedigh Bioscoopreclame B.V. Apparatus for monitoring the replay of audio/video information carriers
US4840602A (en) * 1987-02-06 1989-06-20 Coleco Industries, Inc. Talking doll responsive to external signal
US4807031A (en) * 1987-10-20 1989-02-21 Interactive Systems, Incorporated Interactive video method and apparatus
FR2626731B3 (fr) 1988-01-28 1990-08-03 Informatique Realite Dispositif electronique autonome destine a permettre la participation a une emission radiophonique ou televisee
US4923428A (en) * 1988-05-05 1990-05-08 Cal R & D, Inc. Interactive talking toy
US4945412A (en) 1988-06-14 1990-07-31 Kramer Robert A Method of and system for identification and verification of broadcasting television and radio program segments
US5090936A (en) * 1988-07-30 1992-02-25 Takara Co., Ltd. Movable decoration
GB8824969D0 (en) * 1988-10-25 1988-11-30 Emi Plc Thorn Identification codes
US5499265A (en) * 1989-08-07 1996-03-12 Omnipoint Data Company, Incorporated Spread spectrum correlator
US5191615A (en) * 1990-01-17 1993-03-02 The Drummer Group Interrelational audio kinetic entertainment system
US5446756A (en) * 1990-03-19 1995-08-29 Celsat America, Inc. Integrated cellular communications system
US5136613A (en) * 1990-09-28 1992-08-04 Dumestre Iii Alex C Spread Spectrum telemetry
US5085610A (en) * 1991-05-16 1992-02-04 Mattel, Inc. Dual sound toy train set
FI88237C (fi) * 1991-05-24 1993-04-13 Nokia Mobile Phones Ltd Programmering av funktionerna i en mobiltelefon
WO1994017609A1 (en) 1991-07-19 1994-08-04 John Barrett Kiefl Television viewer monitoring system
US5382970A (en) 1991-07-19 1995-01-17 Kiefl; John B. Television viewer monitoring system including portable data meter for each viewer
JPH05145515A (ja) * 1991-11-19 1993-06-11 Canon Inc スペクトル拡散通信装置
US5319735A (en) * 1991-12-17 1994-06-07 Bolt Beranek And Newman Inc. Embedded signalling
JPH05252578A (ja) 1992-03-03 1993-09-28 Toyo Keiki Kk 通信システム
US5353352A (en) 1992-04-10 1994-10-04 Ericsson Ge Mobile Communications Inc. Multiple access coding for radio communications
US5301167A (en) * 1992-08-05 1994-04-05 Northeastern University Apparatus for improved underwater acoustic telemetry utilizing phase coherent communications
JP2561232B2 (ja) * 1992-08-31 1996-12-04 双葉電子工業株式会社 スぺクトラム拡散受信装置及びこの装置を用いたスぺクトラム拡散送受信装置
KR100392475B1 (ko) 1992-11-16 2003-11-28 아비트론 인코포레이티드 방송또는기록된세그먼트를엔코딩/디코딩하고그러한세그먼트에대한시청자노출을모니터링하기위한방법과장치
US5570349A (en) * 1994-06-07 1996-10-29 Stanford Telecommunications, Inc. Wireless direct sequence spread spectrum digital cellular telephone system
US5630203A (en) 1993-01-12 1997-05-13 Weinblatt; Lee S. Technique for surveying a radio or a television audience
US5412620A (en) * 1993-03-24 1995-05-02 Micrilor, Inc. Hydroacoustic communications system robust to multipath
US5483689A (en) * 1993-05-07 1996-01-09 Bose Corporation Radio receiving with microprocessor control
US5442343A (en) 1993-06-21 1995-08-15 International Business Machines Corporation Ultrasonic shelf label method and apparatus
US5481294A (en) 1993-10-27 1996-01-02 A. C. Nielsen Company Audience measurement system utilizing ancillary codes and passive signatures
US5436941A (en) * 1993-11-01 1995-07-25 Omnipoint Corporation Spread spectrum spectral density techniques
US6983051B1 (en) * 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US5574773A (en) * 1994-02-22 1996-11-12 Qualcomm Incorporated Method and apparatus of providing audio feedback over a digital channel
US5457807A (en) 1994-03-21 1995-10-10 Weinblatt; Lee S. Technique for surveying a radio or a television audience
US5450490A (en) * 1994-03-31 1995-09-12 The Arbitron Company Apparatus and methods for including codes in audio signals and decoding
US5519779A (en) * 1994-08-05 1996-05-21 Motorola, Inc. Method and apparatus for inserting signaling in a communication system
JPH07336460A (ja) * 1994-06-03 1995-12-22 Hitachi Ltd データ通信装置
US5555258A (en) * 1994-06-17 1996-09-10 P. Stuckey McIntosh Home personal communication system
CA2129925A1 (en) 1994-08-11 1996-02-12 Hendrik Adolf Eldert Zwaneveld Audio synchronization of subtitles
US5539705A (en) * 1994-10-27 1996-07-23 Martin Marietta Energy Systems, Inc. Ultrasonic speech translator and communications system
US6021432A (en) * 1994-10-31 2000-02-01 Lucent Technologies Inc. System for processing broadcast stream comprises a human-perceptible broadcast program embedded with a plurality of human-imperceptible sets of information
DE19539538A1 (de) 1994-10-31 1996-05-02 Tektronix Inc Nicht hörbare Einfügung von Information in ein Audiosignal
EP0710022A3 (en) * 1994-10-31 1998-08-26 AT&T Corp. System and method for encoding digital information in a television signal
EP0713335A2 (en) 1994-11-15 1996-05-22 AT&T Corp. System and method for wireless capture of encoded data transmitted with a television, video or audio signal and subsequent initiation of a transaction using such data
US5828956A (en) 1994-12-30 1998-10-27 Sony Electronics, Inc. Programmable cellular telephone and system
US5774452A (en) * 1995-03-14 1998-06-30 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in audio signals
US5978413A (en) * 1995-08-28 1999-11-02 Bender; Paul E. Method and system for processing a plurality of multiple access transmissions
US5937000A (en) * 1995-09-06 1999-08-10 Solana Technology Development Corporation Method and apparatus for embedding auxiliary data in a primary data signal
US5822360A (en) * 1995-09-06 1998-10-13 Solana Technology Development Corporation Method and apparatus for transporting auxiliary data in audio signals
GB9519087D0 (en) 1995-09-19 1995-11-22 Cursor Positioning Sys Ltd Navigation and tracking system
DE69636084T2 (de) 1995-09-28 2006-09-14 Nec Corp. Verfahren und Vorrichtung zum Einfügen eines Spreizspektrumwasserzeichens in Multimediadaten
US5752880A (en) * 1995-11-20 1998-05-19 Creator Ltd. Interactive doll
US5687191A (en) * 1995-12-06 1997-11-11 Solana Technology Development Corporation Post-compression hidden data transport
US5719937A (en) * 1995-12-06 1998-02-17 Solana Technology Develpment Corporation Multi-media copy management system
DE69635338T2 (de) 1995-12-11 2006-08-03 Openwave Systems Inc., Redwood City Verfahren und Architektur für ein interaktives Zwei-Wege-Datenübertragungsnetzwerk
EP0880235A1 (en) * 1996-02-08 1998-11-25 Matsushita Electric Industrial Co., Ltd. Wide band audio signal encoder, wide band audio signal decoder, wide band audio signal encoder/decoder and wide band audio signal recording medium
US6035177A (en) * 1996-02-26 2000-03-07 Donald W. Moses Simultaneous transmission of ancillary and audio signals by means of perceptual coding
ATE184140T1 (de) * 1996-03-07 1999-09-15 Fraunhofer Ges Forschung Codierverfahren zur einbringung eines nicht hörbaren datensignals in ein audiosignal, decodierverfahren, codierer und decodierer
US5828325A (en) * 1996-04-03 1998-10-27 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
US5893067A (en) 1996-05-31 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for echo data hiding in audio signals
JP3251594B2 (ja) 1996-06-20 2002-01-28 日本アイ・ビー・エム株式会社 データ・ハイディング方法及びデータ抽出方法
US5960398A (en) * 1996-07-31 1999-09-28 Wictor Company Of Japan, Ltd. Copyright information embedding apparatus
US6061793A (en) * 1996-08-30 2000-05-09 Regents Of The University Of Minnesota Method and apparatus for embedding data, including watermarks, in human perceptible sounds
US6031914A (en) * 1996-08-30 2000-02-29 Regents Of The University Of Minnesota Method and apparatus for embedding data, including watermarks, in human perceptible images
US5848155A (en) 1996-09-04 1998-12-08 Nec Research Institute, Inc. Spread spectrum watermark for embedded signalling
US7607147B1 (en) * 1996-12-11 2009-10-20 The Nielsen Company (Us), Llc Interactive service device metering systems
GB9700854D0 (en) * 1997-01-16 1997-03-05 Scient Generics Ltd Sub-audible acoustic data transmission mechanism
JP3690043B2 (ja) 1997-03-03 2005-08-31 ソニー株式会社 音声情報伝送装置及び方法並びに音声情報記録装置
US6125172A (en) 1997-04-18 2000-09-26 Lucent Technologies, Inc. Apparatus and method for initiating a transaction having acoustic data receiver that filters human voice
GB2326572A (en) * 1997-06-19 1998-12-23 Softsound Limited Low bit rate audio coder and decoder
JPH1168685A (ja) * 1997-08-21 1999-03-09 Sony Corp 無線情報通信方法及びその装置
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy
US5945932A (en) * 1997-10-30 1999-08-31 Audiotrack Corporation Technique for embedding a code in an audio signal and for detecting the embedded code
US6467089B1 (en) 1997-12-23 2002-10-15 Nielsen Media Research, Inc. Audience measurement system incorporating a mobile handset
JP3673664B2 (ja) * 1998-01-30 2005-07-20 キヤノン株式会社 データ処理装置、データ処理方法及び記憶媒体
AUPP170298A0 (en) 1998-02-06 1998-03-05 Pracas, Victor Manuel Electronic interactive puppet
US6389055B1 (en) * 1998-03-30 2002-05-14 Lucent Technologies, Inc. Integrating digital data with perceptible signals
AUPP392498A0 (en) * 1998-06-04 1998-07-02 Innes Corporation Pty Ltd Traffic verification system
CN2359847Y (zh) * 1998-07-24 2000-01-19 黄乐讯 无辐射蜂窝移动电话手持机
WO2000021203A1 (en) * 1998-10-02 2000-04-13 Comsense Technologies, Ltd. A method to use acoustic signals for computer communications
FI982363L (fi) * 1998-10-30 2000-05-01 Nokia Mobile Phones Ltd Menetelmä ja järjestelmä radiolaitteen toiminnan rajoittamiseksi tietyllä alueella
CA2288366A1 (en) * 1998-11-05 2000-05-05 Akira Ogino Additional information transmission method, additional information transmission system, information signal output apparatus, information signal processing apparatus, information signal recording apparatus and information signal recording medium
JP2000152217A (ja) 1998-11-09 2000-05-30 Toshiba Corp 映像取得制限システム、映像取得許否信号送信装置および映像取得制限装置
JP3012619B1 (ja) * 1998-11-11 2000-02-28 埼玉日本電気株式会社 携帯電話付加サービス設定自動処理システム及び自動応答機能付き携帯電話機
US6876623B1 (en) * 1998-12-02 2005-04-05 Agere Systems Inc. Tuning scheme for code division multiplex broadcasting system
US6370666B1 (en) * 1998-12-02 2002-04-09 Agere Systems Guardian Corp. Tuning scheme for error-corrected broadcast programs
GB9828101D0 (en) 1998-12-21 1999-02-17 Roke Manor Research Acoustic marketing device
GB2363300B (en) 1998-12-29 2003-10-01 Kent Ridge Digital Labs Digital audio watermarking using content-adaptive multiple echo hopping
US6442283B1 (en) * 1999-01-11 2002-08-27 Digimarc Corporation Multimedia data embedding
JP2000207170A (ja) 1999-01-14 2000-07-28 Sony Corp 情報処理装置および情報処理方法
GB2363940B (en) * 1999-01-19 2004-01-07 Koplar Interactive Systems Int Telephone handset for use in interactive tv systems
GB9902235D0 (en) * 1999-02-01 1999-03-24 Emuse Corp Interactive system
JP3465616B2 (ja) 1999-02-12 2003-11-10 株式会社デンソー データ配信システム及び情報配信センタ
JP4024957B2 (ja) 1999-03-12 2007-12-19 シャープ株式会社 通信装置および通信システム
US6765950B1 (en) * 1999-04-01 2004-07-20 Custom One Design, Inc. Method for spread spectrum communication of supplemental information
JP2000308130A (ja) 1999-04-16 2000-11-02 Casio Comput Co Ltd 通信システム
US6674993B1 (en) * 1999-04-30 2004-01-06 Microvision, Inc. Method and system for identifying data locations associated with real world observations
US6298322B1 (en) * 1999-05-06 2001-10-02 Eric Lindemann Encoding and synthesis of tonal audio signals using dominant sinusoids and a vector-quantized residual tonal signal
US7031271B1 (en) * 1999-05-19 2006-04-18 Motorola, Inc. Method of and apparatus for activating a spread-spectrum radiotelephone
GB9917985D0 (en) 1999-07-30 1999-09-29 Scient Generics Ltd Acoustic communication system
GB2345779B (en) * 1999-10-12 2004-08-11 Roke Manor Research Apparatus for controlling a remote item
WO2001031816A1 (en) 1999-10-27 2001-05-03 Nielsen Media Research, Inc. System and method for encoding an audio signal for use in broadcast program identification systems, by adding inaudible codes to the audio signal
AU1290401A (en) 1999-11-11 2001-06-06 Scientific Generics Limited Acoustic location system
US7065342B1 (en) * 1999-11-23 2006-06-20 Gofigure, L.L.C. System and mobile cellular telephone device for playing recorded music
US6438117B1 (en) * 2000-01-07 2002-08-20 Qualcomm Incorporated Base station synchronization for handover in a hybrid GSM/CDMA network
US6737957B1 (en) * 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US7155159B1 (en) * 2000-03-06 2006-12-26 Lee S. Weinblatt Audience detection
US6773344B1 (en) * 2000-03-16 2004-08-10 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
US8091025B2 (en) 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US6708214B1 (en) * 2000-04-21 2004-03-16 Openwave Systems Inc. Hypermedia identifier input mode for a mobile communication device
EP1158800A1 (en) 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Method and receiver for providing audio translation data on demand
US6782253B1 (en) * 2000-08-10 2004-08-24 Koninklijke Philips Electronics N.V. Mobile micro portal
US20020069263A1 (en) * 2000-10-13 2002-06-06 Mark Sears Wireless java technology
US6892175B1 (en) * 2000-11-02 2005-05-10 International Business Machines Corporation Spread spectrum signaling for speech watermarking
ES2388357T3 (es) * 2000-11-30 2012-10-11 Intrasonics S.A.R.L. Telefono móvil para recoger datos de índices de audiencia
CA2457089A1 (en) 2001-08-14 2003-02-27 Central Research Laboratories Limited System to provide access to information related to a broadcast signal
US6862355B2 (en) 2001-09-07 2005-03-01 Arbitron Inc. Message reconstruction from partial detection

Also Published As

Publication number Publication date
CN101282541A (zh) 2008-10-08
ES2315321T3 (es) 2009-04-01
CN101282541B (zh) 2011-04-06
EP1340320A2 (en) 2003-09-03
CN1575613B (zh) 2010-05-12
JP2011061766A (ja) 2011-03-24
EP2288121A2 (en) 2011-02-23
JP2008219909A (ja) 2008-09-18
US20040137929A1 (en) 2004-07-15
CN101282184A (zh) 2008-10-08
CN101820474B (zh) 2013-11-06
WO2002045273A8 (en) 2002-08-15
CN1575613A (zh) 2005-02-02
EP1928109B1 (en) 2012-05-23
EP1928109A3 (en) 2008-12-17
EP1340320B1 (en) 2008-10-15
ATE411658T1 (de) 2008-10-15
AU2002220858A1 (en) 2002-06-11
EP1928109A2 (en) 2008-06-04
JP4880650B2 (ja) 2012-02-22
US8185100B2 (en) 2012-05-22
EP2288121A3 (en) 2011-06-22
WO2002045273A2 (en) 2002-06-06
DK1340320T3 (da) 2009-02-23
JP2009027722A (ja) 2009-02-05
US7796978B2 (en) 2010-09-14
JP2004531103A (ja) 2004-10-07
US20100240297A1 (en) 2010-09-23
CN101820474A (zh) 2010-09-01
DK1928109T3 (da) 2012-08-27
DE60136213D1 (de) 2008-11-27

Similar Documents

Publication Publication Date Title
ES2388357T3 (es) Telefono móvil para recoger datos de índices de audiencia
JP2004531103A6 (ja) 通信システム
US7460991B2 (en) System and method for shaping a data signal for embedding within an audio signal
US11418233B2 (en) Methods and apparatus to monitor a media presentation
US6947893B1 (en) Acoustic signal transmission with insertion signal for machine control
JP4528365B1 (ja) 発信装置
US20120203363A1 (en) Apparatus, system and method for activating functions in processing devices using encoded audio and audio signatures
KR20020093994A (ko) 오디오 신호에서 삽입된 숨은 데이터를 추출하고,디코딩하며, 이용하기 위한 시스템 및 방법
CN109952588B (zh) 唯一音频标识符同步系统
ES2367476T3 (es) Sistema de comunicación acústica.