[go: up one dir, main page]

ES2312810T3 - Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. - Google Patents

Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. Download PDF

Info

Publication number
ES2312810T3
ES2312810T3 ES03760020T ES03760020T ES2312810T3 ES 2312810 T3 ES2312810 T3 ES 2312810T3 ES 03760020 T ES03760020 T ES 03760020T ES 03760020 T ES03760020 T ES 03760020T ES 2312810 T3 ES2312810 T3 ES 2312810T3
Authority
ES
Spain
Prior art keywords
signal
impact
omega
captured
active
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03760020T
Other languages
English (en)
Inventor
Ros Kiri Ing
Stefan Catheline
Nicolas Quieffin
Mathias Fink
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensitive Object SA
Original Assignee
Sensitive Object SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensitive Object SA filed Critical Sensitive Object SA
Application granted granted Critical
Publication of ES2312810T3 publication Critical patent/ES2312810T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Road Signs Or Road Markings (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Golf Clubs (AREA)
  • Refuse Collection And Transfer (AREA)
  • Apparatuses And Processes For Manufacturing Resistors (AREA)

Abstract

Procedimiento en el cual se localiza un impacto en una superficie (9, 15, 17, 22) que pertenece a un objeto (5, 3, 16, 18) formando interfaz acústica, dotado de al menos un sensor acústico (6), procedimiento en el cual se capta al menos una señal a partir de ondas acústicas generadas en el objeto formando interfaz acústica (5, 3, 16, 18) por dicho impacto y se localiza el impacto por tratamiento de dicha señal captada, caracterizado porque consta de una etapa de reconocimiento en el curso de la cual se compara la señal captada con al menos una señal predeterminada correspondiendo a la señal captada cuando se genera un impacto en al menos una zona activa (10) perteneciendo a la superficie del objeto formando interfaz acústica (5, 3, 16, 18), y se asocia el impacto a dicha zona activa (10) si la señal captada está suficientemente cerca de dicha señal predeterminada.

Description

Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en práctica de este procedimiento.
La presente invención hace referencia a los procedimientos para localizar un impacto sobre una superficie y a los dispositivos para la puesta en práctica de dichos procedimientos.
Más particularmente, la invención se refiere a un procedimiento en el cual se localiza un impacto sobre una superficie que pertenece a un objeto formando interfaz acústica, dotado al menos de un sensor acústico (el objeto formando interfaz acústica puede estar constituido de una sola pieza o de varios elementos, ensamblados o al menos en contacto mutuo), en cuyo procedimiento se capta al menos una señal a partir de ondas acústicas generadas en el objeto que forman interfaz acústica por el mencionado impacto y se localiza el impacto por procesamiento de dicha señal captada.
El documento FR-A-2811107 describe un ejemplo de un procedimiento semejante que se aplica particularmente a un cristal. En este procedimiento conocido se calcula la posición del impacto sobre la superficie del objeto midiendo las diferencias de tiempo de vuelo de las ondas acústicas hasta diferentes sensores.
Este procedimiento conocido requiere sin embargo:
-
\vtcortauna que el cristal utilizado presente una homogeneidad perfecta y un estado perfecto de superficie,
-
\vtcortauna que los campos del cristal sean tratados especialmente para evitar en particular las reflexiones de las ondas acústicas,
-
\vtcortauna que se conozca por adelantado la velocidad de las ondas acústicas en el cristal, lo que supone conocer con precisión su composición,
-
\vtcortauna que se utilicen al menos cuatro sensores.
Se deduce que este procedimiento conocido es particularmente costoso para poner en práctica y no se puede aplicar a cualquiera de los objetos preexistentes, especialmente objetos heterogéneos constituidos por conjuntos de piezas, objetos de forma irregular, etc.
La presente invención tiene particularmente como fin paliar estos inconvenientes.
A este efecto, según la invención, un procedimiento del tipo mencionado se caracteriza en que consta de una etapa de reconocimiento en el curso de la cual se compara la señal captada con al menos una señal predeterminada que corresponde a la señal que es captada cuando se genera un impacto sobre al menos una zona activa que pertenezca a la superficie del objeto formando interfaz acústica (esta comparación, que puede hacerse tanto en el dominio temporal como en el dominio frecuencial, puede eventualmente efectuarse únicamente sobre una parte de la señal captada o sobre datos extraídos de la señal captada después de ser procesada, en cualquier caso dicha señal predeterminada puede ser reducida a la parte sobre la cual se hace la comparación o a los datos sobre los cuales se hace la comparación) y se asocia el impacto a dicha zona activa si la señal captada está suficientemente cerca de dicha señal predeterminada.
Gracias a estas disposiciones, se obtiene un procedimiento de posicionamiento de impacto que es robusto, adaptable a todos los objetos (incluidos los objetos heterogéneos constituidos por conjuntos de varias piezas o por puesta en contacto de varias piezas), fácil y poco costoso para poner en práctica.
En los modos de realización preferentes de la invención, se puede recurrir eventualmente además a una y/u otra de las disposiciones siguientes:
-
\vtcortauna la superficie del objeto formando interfaz acústica consta de varias zonas activas y en el curso de la etapa de reconocimiento, se compara la señal captada con varias señales predeterminadas correspondiendo cada una a la señal captada cuando se genera un impacto sobre una de dichas zonas activas;
-
\vtcortauna se utiliza un solo sensor acústico;
-
\vtcortauna se utilizan varios sensores acústicos y en el curso de la etapa de reconocimiento, se capta una señal para cada sensor acústico y se comparan las señales captadas por los diferentes sensores acústicos con las señales predeterminadas independientemente las unas con las otras;
-
\vtcortauna se comparan las señales captadas por los diferentes sensores acústicos con las señales predeterminadas de una forma diferente las unas con las otras;
-
\vtcortauna se utilizan varios sensores acústicos para medir varias magnitudes diferentes;
-
\vtcortauna se utilizan como mucho dos sensores acústicos;
-
\vtcortauna el procedimiento consta de una etapa inicial de aprendizaje en el curso de la cual se determina experimentalmente cada señal predeterminada generando al menos un impacto sobre cada zona activa;
-
\vtcortauna cada señal predeterminada es una señal teórica (calculada o determinada experimentalmente a partir de un objeto idéntico o muy similar desde el punto de vista acústico al utilizado);
-
\vtcortauna en el curso de la etapa de reconocimiento, se compara la señal captada con al menos dicha señal predeterminada por intercorrelación;
-
\vtcortauna en el curso de la etapa de reconocimiento, se compara dicha señal captada con al menos una señal predeterminada por un procedimiento de reconocimiento escogido entre un reconocimiento vocal, un reconocimiento de señales, un reconocimiento de forma y un reconocimiento por red neuronal;
-
\vtcortauna en el curso de la etapa de reconocimiento, se asocia la señal captada a una sola zona activa o a ninguna zona activa;
-
\vtcortauna se asocia cada zona activa a una información predeterminada (por ejemplo, un carácter alfanumérico, un comando, etc.) y cuando se asocia el impacto a una zona activa, se hace utilizar la información predeterminada correspondiente a esta zona activa mediante un dispositivo electrónico;
-
\vtcortauna la superficie del objeto formando interfaz acústica conlleva un número n de zonas activas, siendo n al menos igual a 2, y la etapa de reconocimiento consta de las subetapas siguientes:
\bullet
\vtcortauna se procede a una intercorrelación de la señal captada (generalmente después de normalizar) con dichas señales predeterminadas R_{i}(t), siendo i un entero natural comprendido entre 1 y n que designa una zona activa, y se obtienen así funciones de intercorrelación C_{i}(t),
\bullet
\vtcortauna se determina una zona activa j potencialmente activada que corresponde al resultado de intercorrelación C_{j}(t) con un máximo de amplitud más elevado que los de los otros resultados C_{i}(t),
\bullet
\vtcortauna se determina igualmente la distribución D(i) de los máximos de amplitud de los resultados de intercorrelación:
D(i)=Max((C_{i}(t)),
\bullet
\vtcortauna se determina igualmente la distribución D'(i) de los máximos de amplitud de los resultados de intercorrelación C'_{i}(t) entre R_{j}(t) y las diferentes señales predeterminadas R_{i}(t): D'(i)=Max((C'_{i}(t)),
\bullet
\vtcortauna se determina si el impacto ha sido generado en la zona activa j en función del nivel de correlación entre las distribuciones D(i) y D'(i);
-
\vtcortauna en el curso de la etapa de reconocimiento, se trata la señal captada para extraer de ella datos representativos de ciertas características de la señal captada y se comparan los datos así extraídos con los datos de referencia extraídos de la señal captada cuando se genera un impacto en cada zona activa;
-
\vtcortauna en el curso de la etapa de reconocimiento, se determina un código a partir de dichos datos extraídos de la señal captada y se compara este código con una tabla que proporciona una correspondencia entre al menos ciertos códigos y cada zona activa;
-
\vtcortauna el objeto formando interfaz acústica consta al menos de dos zonas activas y en el curso de la etapa de reconocimiento, se determinan valores de similitud representativos de la similitud entre la señal captada y las señales predeterminadas (particularmente un valor procedente de la función de intercorrelación, por ejemplo su máximo), se asocia el impacto con varias zonas activas adyacentes correspondiendo a un máximo de similitud, llamadas zonas activas de referencia, y a continuación se determina la posición del impacto en la superficie en función de los valores de similitud atribuidos a las zonas activas de referencia;
-
\vtcortauna se determina la posición del impacto en la superficie de manera que los valores de similitud atribuidos a las zonas activas de referencia correspondan lo mejor posible a valores de similitud teóricos calculados por dichas zonas activas de referencia para un impacto generado en dicha posición en la superficie;
\newpage
-
\vtcortauna los valores de similitud teóricos son funciones de la posición del impacto en la superficie, determinadas de antemano para cada conjunto posible de zonas activas de referencia;
-
\vtcortauna se identifica la zona activa mediante la comparación entre la fase de las señales predeterminadas R_{i}(t) y la de la señal captada;
-
\vtcortauna durante la fase de aprendizaje, se calcula la transformada de Fourier R_{i}(\omega)=|R_{i}(\omega)|.e^{j \phi i(\omega)} de cada señal acústica R_{i}(t) generada por un impacto en la zona activa i, donde i es un índice comprendido entre 1 y n, y no se conserva de esta transformada de Fourier más que la componente de fase e^{j \phi i(\omega)}, en las únicas bandas de frecuencia \omega donde la amplitud |R_{i}(\omega)| es superior a un umbral predeterminado, y a continuación se aplica el mismo tratamiento a cada señal acústica captada S(t) durante el funcionamiento normal del dispositivo;
-
\vtcortauna el umbral predeterminado es igual al máximo de MAX/D y de |B(\omega)|, donde:
\bullet
\vtcortauna se escoge MAX entre el valor máximo de los módulos |R_{i}(\omega)|, el valor máximo de los módulos |R_{i}(\omega)| normalizados cada uno en energía y el valor máximo de la envoltura de la media de los módulos |R_{i}(\omega)| normalizados cada uno en energía,
\bullet
\vtcortauna D es una constante,
\bullet
\vtcortauna |B(\omega)| es la media de varios espectros de ruido en el objeto formando interfaz acústica, adquiridos a distintos instantes;
-
\vtcortauna durante el funcionamiento normal del dispositivo:
\bullet
\vtcortauna se calcula un producto P_{i}(\omega) igual a S'(\omega) multiplicado por el conjugado de R_{i}'(\omega) para referencias i=1 ... n,
\bullet
\vtcortauna a continuación se normalizan los productos P_{i}(\omega),
\bullet
\vtcortauna a continuación se efectúa la transformada de Fourier inversa de todos los productos P_{i}(\omega) y se obtienen funciones temporales X_{i}(t),
\bullet
\vtcortauna y se atribuye la señal S(t) a una zona activa (10) en función de dichas funciones temporales X_{i}(t);
-
\vtcortauna se atribuye la señal S(t) a una zona activa en función de los valores máximos de dichas funciones temporales X_{i}(t).
\vskip1.000000\baselineskip
Por otro lado, la invención tiene igualmente por objeto un dispositivo especialmente adaptado para poner en práctica un procedimiento de conexión en cascada tal como se define en lo anterior.
Otras características y ventajas de la presente invención aparecerán en el curso de la descripción siguiente de cinco de sus formas de realización, a título de ejemplos no limitativos, con referencia a los dibujos adjuntos.
En los dibujos:
- la figura 1 es una vista esquemática en perspectiva mostrando un ejemplo de dispositivo que comprende una interfaz acústica adaptada para poner en práctica un procedimiento según una primera forma de realización de la invención,
- la figura 2 es un diagrama de bloques del dispositivo de la figura 1,
- la figura 3 representa un grafo que ilustra un ejemplo de método que permite asociar un impacto en la superficie de la interfaz acústica visible en la figura 1, con una zona activa de esta superficie,
- la figura 4 representa esquemáticamente una interfaz acústica utilizable en un dispositivo de puesta en práctica de un procedimiento según una segunda forma de realización de la invención,
- la figura 5 es un diagrama de bloques de un ejemplo de dispositivo que puede utilizar la interfaz de entrada de la figura 4,
- y las figuras 6 a 9 representan esquemáticamente interfaces acústicas utilizables en un dispositivo de puesta en práctica de un procedimiento según la tercera, cuarta y quinta formas de realización de la invención.
En las diferentes figuras, las mismas referencias designan elementos idénticos o similares.
La figura 1 representa un dispositivo (1) destinado a poner en práctica la presente invención, que comprende, por ejemplo:
-
\vtcortauna una unidad central (2) de microordenador,
-
\vtcortauna una pantalla (3) conectada a la unidad central (2),
-
\vtcortauna y una interfaz de entrada acústica (4) que permite comunicar informaciones a la unidad central (2) en el ejemplo considerado.
\vskip1.000000\baselineskip
La interfaz de entrada acústica (4) consta de un objeto sólido (5), constituido en este caso por una mesa en la cual se hace propagar unas ondas acústicas generando unos impactos en la superficie (9), como se explicará a continuación.
Se debe observar, sin embargo, que el objeto formando interfaz acústica podría estar constituido por cualquier otro objeto, homogéneo o heterogéneo, constituido de una sola pieza o de varias piezas ensambladas o simplemente en contacto mutuo, tal como: cristal, puerta, ventana, marco portátil ("tablette portative"), pantalla de ordenador, tablón de anuncios, terminal interactivo, juguete, tablero de mandos de vehículo, parte trasera de respaldo de asiento delantero de vehículo automóvil o de asiento de avión, pared, suelo, parachoques de vehículo (siendo entonces la posición de un impacto en el parachoques la información transmitida por la interfaz acústica), etc.
Al menos un sensor acústico (6) (un solo sensor -6- en el ejemplo representado) está fijado al objeto (5), estando dicho sensor acústico (6) conectado por ejemplo a la entrada de un micrófono (7) de la unidad central (2), a través de una cable (8) o a través de cualquier otro medio de transmisión (radio, infrarrojos u otro), de manera que capte dichas ondas acústicas y las transmita a la unidad central (2).
El sensor acústico (6) puede ser por ejemplo un sensor piezoeléctrico, u otro (por ejemplo, un sensor capacitivo, un sensor magnetoestrictivo, un sensor electromagnético, un velocímetro acústico, un sensor óptico [interferómetro láser, vibrómetro láser, ...], etc.). Puede estar adaptado para medir por ejemplo las amplitudes de los desplazamientos debidos a la propagación de las ondas sonoras en el objeto (5) formando interfaz acústica, o incluso la velocidad o la aceleración de dichos desplazamientos, o bien incluso puede tratarse de un sensor de presión para medir las variaciones de presión debidas a la propagación de ondas acústicas en el objeto (5).
En la superficie externa (9) del objeto (5) (en este caso en la cara superior de la mesa que constituye dicho objeto -5- en el ejemplo que representa la figura 1), se definen varias zonas activas (10), que pueden estar delimitadas por ejemplo:
-
\vtcortauna por una marca física, amovible o no, fijada en la superficie (9) del objeto (5),
-
\vtcortauna o incluso por una marca luminosa obtenida por una proyección de una imagen en la superficie (9).
\vskip1.000000\baselineskip
La superficie (9) podría comprender también partes en las cuales se impediría generar un impacto por ejemplo recubriéndolas de un material flexible o simplemente inaccesible por el usuario, particularmente para una mejor fiabilidad del sistema.
Las diferentes zonas activas (10) pueden ser simplemente partes de la superficie (9), idénticas al resto de la superficie (9). Sin embargo estas zonas activas se diferencian las unas de las otras y del resto de la superficie (9), en la medida en la que un impacto en una de las zonas (10) genera una señal acústica diferente de la señal generada por un impacto en otra de las zonas activas (10) o en otra parte de la superficie (9).
Cada una de las zonas activas (10) se asocia a una información predeterminada que un usuario puede querer comunicar a la unidad central (2). La información en cuestión puede por ejemplo ser un comando, un número, un carácter, una posición en la superficie (9), o cualquier otra información que pueda ser transmitida habitualmente a un dispositivo electrónico tal como un microordenador (o a la unidad central de otro aparato electrónico) por medio de interfaces de entrada clásicas tales como teclados, botones de comando, ratones u otros.
Las informaciones en cuestión pueden estar indicadas eventualmente con claridad por unas marcas (10a) en la superficie (9) (igual que para las referencias de las zonas -10-, estas marcas pueden estar fijadas físicamente en la superficie -9- de manera definitiva o amovible, o incluso pueden estar proyectadas bajo la forma de imágenes luminosas en dicha superficie -9-).
Según una variante, la superficie (9) del objeto (5) puede comprender simplemente unas referencias (fijadas físicamente o luminosas) permitiendo distinguir las zonas activas las unas de las otras. Estas referencias pueden ser, por ejemplo, unos números o unos colores, y su significado puede ser recordado eventualmente mediante una visualización generada por la unidad central (2) en la pantalla (3).
\newpage
\global\parskip0.900000\baselineskip
Eventualmente, la superficie (9) puede también no comprender ninguna marca, ni para delimitar las zonas activas, ni para identificar las informaciones a las cuales se corresponden, en cuyo caso las zonas activas (10) sólo serían conocidas por los usuarios autorizados del dispositivo (1).
Se debe observar que las informaciones predeterminadas asociadas a cada zona activa (10) pueden o bien ser siempre las mismas, o bien variar en función del desarrollo de un programa en la unidad central (2), o bien depender aún de accionamientos anteriores de otras zonas activas (10) (ciertas zonas activas -10- pueden ser accionadas por ejemplo para cambiar la función atribuida a una o varias zonas activas accionadas después de ésta, de manera, por ejemplo, que acceda a funciones específicas, a caracteres especiales, o incluso para poner letras en mayúsculas, etc.).
Las diferentes zonas activas (10) del objeto (5) constituyen pues un verdadero teclado virtual que se acciona tocando en las zonas activas, indistintamente con la uña de un dedo, con el extremo de los dedos, con un objeto tal como un bolígrafo, estilete u otro.
Se debe observar que la superficie (9) del objeto (5) podría en caso deseado constar de una sola zona activa (10) en los casos más sencillos, no extendiéndose sin embargo dicha zona activa (10) en el conjunto de la superficie (9) y constituyendo preferentemente una parte reducida de dicha superficie (9).
Tal como se ha representado en la figura 2, el sensor (6) (SENS.) puede estar conectado clásicamente por medio de la entrada (7) a un amplificador (11) él mismo conectado a un convertidor analógico-digital (12) (A/D) que transmite las señales recibidas al procesador (13) de la unidad central (2) (CPU) cuyo procesador está conectado él mismo a una o varias memorias (14) (MEM.) y hace funcionar la pantalla (3) antes mencionada (SCR.) o cualquier otra interfaz de salida que reenvíe informaciones hacia el usuario.
Se debe observar que la interfaz acústica (4) podría servir de interfaz de entrada de informaciones hacia otros dispositivos electrónicos que no sean un microordenador, por ejemplo un aparato electrónico doméstico o profesional, una cerradura electrónica por marcación numérica, una unidad central electrónica de vehículo, etc. En todos los casos, las señales eléctricas generadas por el o los sensores (6) pueden ser tratadas o bien en dicho aparato electrónico, o bien en un dispositivo numérico externo de procesamiento de señal (DSP).
Durante la utilización del dispositivo (1) descrito anteriormente, cuando un usuario genera un impacto en la superficie (9) del objeto (5), dicho impacto engendra una onda acústica que se propaga por el objeto (5) hasta el sensor acústico (6). El sensor acústico (6) genera entonces una señal eléctrica S(t) que, después de su digitalización, es tratada por el procesador (13) (o por otro procesador dedicado, interno o externo a la unidad central -2-).
El procesador (13) compara a continuación la señal recibida con diferentes señales predeterminadas pertenecientes a una biblioteca de señales memorizadas previamente en la memoria (14), correspondiéndose dichas señales predeterminadas respectivamente a impactos generados en las diferentes zonas activas (10) del objeto (5).
Esta comparación permite saber si la señal acústica proviene de una de las zonas activas (10) y la cual, cualquiera que sea la forma de excitación de dicha superficie activa (impacto de una uña, de una extremidad de dedo, de una palma de mano, de un objeto tal como un bolígrafo o un estilete, etc.).
Las señales predeterminadas de la biblioteca de señales pueden haber sido determinadas en el curso de una fase de aprendizaje inicial en la cual se generan impactos sucesivamente en todas las zonas activas (10) del objeto (5), registrando las señales correspondientes (preferentemente después de su normalización, por ejemplo para que la energía de cada señal de referencia sea igual a 1) recibidas en la unidad central (2) por medio del sensor acústico (6).
Según una variante, cuando el objeto (5) tiene una forma geométrica simple y/o repetitiva, es posible que las señales predeterminadas de la biblioteca de señales se obtengan por modelado o se determinen experimentalmente una sola vez para todos los objetos (5) de una serie de objetos idénticos: en estos dos casos, no habría pues fase previa de aprendizaje para el objeto (5) en particular conectado a la unidad central (2), sino simplemente instalación de la biblioteca de señales en la memoria (14) de dicha unidad central.
Se debe observar que en algunos casos (particularmente si el objeto (5) es de madera), se pueden hacer variar las señales predeterminadas de la biblioteca de señales en función de las condiciones ambientales, particularmente la temperatura y la humedad. Estas variaciones pueden ser calculadas o bien ser resultado de una nueva fase de aprendizaje.
La comparación de las señales recibidas durante la utilización del dispositivo (1), con las señales predeterminadas de la biblioteca de señales, puede llevarse a cabo:
-
\vtcortauna directamente con las señales temporales S(t) recibidas del sensor (6),
-
\vtcortauna o incluso con el espectro de frecuencia de dichas señales (por ejemplo después de la transformada de Fourier de las señales temporales recibidas del sensor -6-),
-
\vtcortauna o con otros datos característicos de la señal, particularmente su fase.
\global\parskip1.000000\baselineskip
\newpage
La comparación de las señales captadas con las señales predeterminadas de la biblioteca de señales puede llevarse a cabo por cualquier medio conocido, particularmente:
-
mediante intercorrelación,
-
mediante procedimientos conocidos de reconocimiento vocal, de reconocimiento de señales o de reconocimiento de forma,
-
mediante utilización de redes neuronales u otras.
\vskip1.000000\baselineskip
A título de ejemplo más preciso, para reconocer la zona activa (10) de donde viene la señal captada S(t), se puede utilizar particularmente el procedimiento siguiente:
(1)
Después de normalizar la señal captada S(t) (por ejemplo, se calibra S(t) para que su energía sea igual a 1), se procede a una intercorrelación de la señal S(t) generada por el sensor (6) con las n señales predeterminadas de la biblioteca también normalizadas, anotadas Ri(t) con i=1..n. Se obtienen así funciones Ci(t), que son los resultados temporales del producto de intercorrelación de la señal S(t) respectivamente con las señales Ri(t) de la biblioteca. A partir de estos cálculos, se determina una zona activa potencialmente activada j correspondiente al resultado de intercorrelación Cj(t) que tiene un máximo de amplitud más elevado que los de los otros resultados Ci(t).
(2)
Se determina igualmente la distribución D(i) de los máximos de amplitud de los resultados de intercorrelación:
D(i)=Max((Ci(t)) con i=1..n.
(3)
Se calcula una segunda función de distribución D'(i) obtenida de manera idéntica al cálculo de la función D(i) pero reemplazando S(t) por Rj(t).
(4)
Se procede a una intercorrelación de las distribuciones de los máximos de amplitudes D(i) y D'(i). Si la amplitud máxima E del resultado de intercorrelación entre D(i) y D'(i) es suficiente, entonces j es el número considerado de la zona activada. Sino, la señal generada por el sensor corresponde a una falsa alarma.
\vskip1.000000\baselineskip
En el curso de esta etapa (4), se puede simplemente calcular E y el valor máximo de D(i), sea Max(D(i)): si se consideran estos dos valores como las coordenadas de un punto en un espacio bidimensional de ejes x=Max(D(i)) e y=E, como se ha representado en la figura 3, se puede determinar de antemano (empíricamente o por cálculo) una curva umbral L que delimita un dominio D correspondiente a los puntos validados (este dominio se termina y está limitado en x=1 e y=1, valores máximos absolutos de D(i) y E). En cuanto a las señales captadas que dan puntos fuera del dominio D, son eliminadas por ser falsas alarmas.
En el ejemplo considerado, la línea D es una recta que puede pasar, por ejemplo, por los puntos (S1, 0) y (0, S2). Por ejemplo, S1=0,4 y S2=0,4 u 0,6.
Se debe observar que además de identificar la zona activa (10) de donde proviene el impacto, es posible medir la fuerza del impacto, por ejemplo para guiar al usuario en su manera de utilizar la interfaz acústica, o incluso para modular la acción provocada por un impacto en una zona activa (10), según la intensidad de dicho impacto.
Se debe observar por otro lado que el reconocimiento de señales que provienen de zonas activas (10) puede llevarse a cabo eventualmente utilizando únicamente una parte de las señales S(t) recibidas o una parte de su espectro de frecuencia o más generalmente una parte de sus características. En este caso, en el curso de la etapa de reconocimiento, se trata la señal captada para extraer de ella datos representativos de ciertas características de la señal captada y se comparan así los datos extraídos con los datos de referencia extraídos de la señal captada cuando se genera un impacto en cada zona activa.
De este modo, es posible por ejemplo medir la amplitud y la fase de la señal para m frecuencias predeterminadas (siendo m un entero natural al menos igual a 1) y comparar estas amplitudes medidas a1-am y estas fases medidas p1-pn con las amplitudes Ai1-Aim y las fases Pi1-Pim medidas a dichas frecuencias predeterminadas a partir de las señales recibidas en el curso de la fase de aprendizaje (o determinadas por modelado) para las diferentes zonas activas (10) de número i (estando i comprendido entre 1 y n, donde n es el número de zonas activas -10-).
Según una variante, es posible determinar un código a partir de dichos datos extraídos de la señal captada y comparar este código con una tabla que relaciona al menos ciertos códigos con cada zona activa (los códigos contenidos en esta tabla representan en este caso las señales predeterminadas de la biblioteca de señales mencionada anterior-
mente).
A título de ejemplo no limitativo, se puede determinar un código de 16 bits a partir de la señal captada S(t), de la forma siguiente:
- los 8 primeros bits del código se determinan a partir del espectro de frecuencia de la señal S(t) que se subdivide en 8 porciones frecuenciales predeterminadas [f_{k},f_{k+1}], k=1..8: el bit de rango k es igual a 1 por ejemplo si el valor final de energía dado por el espectro a la frecuencia f_{k+1} es superior al valor medio de energía de la onda acústica en la porción de frecuencia [f_{k},f_{k+1}] y este bit vale 0 en el caso contrario;
- los 8 últimos bits del código se determinan a partir de la señal temporal S(t) que se subdivide en 9 porciones temporales predeterminadas [t_{k},t_{k+1}], k=1..9: el bit de rango k+8 es igual a 1 por ejemplo si el valor medio de la potencia de la señal durante el intervalo de tiempo [t_{k},t_{k+1}] es superior al valor medio de la potencia de la señal durante el intervalo de tiempo [t_{k+1},t_{k+2}] para k=1..8 y este bit vale 0 en el caso contrario.
\vskip1.000000\baselineskip
En este ejemplo particular, los códigos de la tabla de correspondencia se determinan durante la fase de aprendizaje, calculando igual que lo indicado anteriormente los códigos que corresponden a las señales captadas por el sensor acústico (6) cuando se generan impactos en las diferentes zonas activas (10).
Por otro lado, como se representa en las figuras 4 y 5, es posible utilizar dos sensores acústicos (6) (SENS. 1 y SENS. 2), en particular cuando el objeto (5) presenta unas simetrías tales que pueda existir un riesgo de confusión entre las señales que provienen de dos zonas activas (10) diferentes. En caso deseado, se podrían utilizar más de dos sensores acústicos (6), aunque las soluciones preferentes recurran a uno o dos sensores (6).
Cuando se utilizan dos sensores o más, dos opciones son posibles:
(1)
mezcla de las señales de los diferentes sensores y tratamiento de la señal global siguiendo el procedimiento descrito anteriormente.
(2)
o, de manera preferente, tratamiento individual de las señales de los diferentes sensores según el procedimiento descrito anteriormente y comprobación de los resultados:
-
\vtcortauna si las zonas activas (10) determinadas a partir de los diferentes sensores tienen números idénticos, entonces se determina que la zona que ha recibido un impacto es ésta,
-
\vtcortauna en los otros casos, se puede o bien considerar la señal captada como una falsa alarma, o bien determinar la zona que ha recibido un impacto, por ejemplo, por intercorrelación entre las funciones de intercorrelación Ci(t) determinadas por cada sensor, o por medios más complejos tales como redes neuronales u otros.
\vskip1.000000\baselineskip
Se debe observar que los dos sensores acústicos pueden ser de diferentes tipos y/o captar magnitudes diferentes y/o sus señales pueden ser tratadas diferentemente para identificar las zonas activas (10) que reciben impactos. Por ejemplo, uno de los sensores acústicos puede servir parar registrar la señal S(t) recibida, mientras que el otro puede servir únicamente para determinar un desfase temporal en la llegada de la onda acústica a los dos sensores.
El segundo sensor podría por otro lado no captar la onda acústica propagada en el objeto sólido (5), sino la onda acústica propagada en el aire en el momento del impacto.
Como se representa en la figura 6, el objeto formando interfaz acústica puede estar constituido por una pantalla de ordenador (3) o una pantalla de televisión en la cual se fija el sensor (6). La superficie que recibe los impactos puede ser ventajosamente el cristal (15) de la pantalla, lo que puede permitir particularmente fijar en la pantalla (3) la delimitación de las zonas activas (10) y su significado. Esta variante sería utilizable por ejemplo para programar un magnetoscopio, en particular en el caso en el que la pantalla (3) sea una pantalla de televisión (la unidad central (2) sería entonces reemplazada por el magnetoscopio).
Como se representa en la figura 7, el objeto formando interfaz acústica puede estar constituido igualmente por una puerta acristalada (16) o similar. En el ejemplo representado en la figura 7, la superficie (17) que incorpora las zonas activas (10) está constituida por la superficie acristalada de la puerta, y todavía en el ejemplo particular representado en esta figura, el sensor acústico (6) está fijado en una parte de madera de la puerta (16).
En el ejemplo representado en la figura 8, el objeto formando interfaz acústica es una tabla (18) concebida específicamente para servir de interfaz acústica. Esta tableta puede por ejemplo comprender un marco rígido (19) solidario de un fondo (20) igualmente rígido que lleva el captador acústico (6).
Una membrana flexible (22), realizada por ejemplo de elastómero, está tendida en el marco (19) a una pequeña distancia por encima del fondo (21). Esta membrana flexible (22) está provista de picos rígidos sobre su cara inferior (puede tratarse por ejemplo de dos semiesferas de vidrio que están pegadas bajo la membrana -22-). De este modo, cuando un usuario establece contacto con la membrana (22) y en particular con una zona activa (10) soportada por esta membrana, esta acción genera un impacto de al menos un pico (23) en el fondo (21) del marco de la tableta (18). Esta variante presenta la ventaja de producir impactos relativamente poco dependientes de la manera en la que el usuario establece contacto con la membrana (22) (con el dedo o la uña o una herramienta, con más o menos fuerza,
etc.).
En los modos de realización de las figuras 6 a 8, el procedimiento puesto en práctica puede ser idéntico o similar al descrito anteriormente y puede permitir que un impacto generado en la superficie del objeto formando interfaz acústica coincida o bien con una zona activa (10), o bien con ninguna zona activa.
Pero también es posible, en todos los modos de realización de la invención recurriendo a diversas superficies activas (eventualmente puntuales), determinar la posición del impacto en la superficie (9) del objeto (5) formando interfaz acústica (ver el ejemplo de la figura 9) incluso cuando este impacto no está en una de las zonas activas. Se obtiene entonces una interfaz acústica continua o seudocontinua (permitiendo un funcionamiento similar por ejemplo a un ratón de ordenador, a un lápiz óptico, a una pantalla táctil o similares).
En este caso, en el curso de la etapa de reconocimiento:
-
\vtcortauna se determinan valores de similitud representativos de la similitud entre la señal captada y las señales predeterminadas (particularmente valores procedentes de las funciones de intercorrelación Ci(t) mencionadas anteriormente, por ejemplo sus máximos D(i) definidos anteriormente),
-
\vtcortauna se asocia el impacto con un número p al menos igual a 2 de las zonas activas adyacentes correspondientes a un máximo de similitud, llamadas zonas activas de referencia R1-R4 (p puede valer ventajosamente 4 en particular para posicionar el impacto según dos dimensiones x, y, o en caso deseado menos de 4 particularmente si el impacto se posiciona según una sola dimensión x o y): se puede por ejemplo determinar en primer lugar la zona R1 como si fuese la zona activa (10) teniendo el valor de similitud D(i) máximo, y a continuación determinar, entre las zonas activas adyacentes a R1, las tres zonas R2-R4 que tienen los valores más elevados del valor de similitud D(i));
-
\vtcortauna a continuación se determina la posición del impacto I en la superficie (9) en función de los valores de similitud D(i) atribuidos a las zonas activas de referencia R1-R4.
\vskip1.000000\baselineskip
En el curso de esta última etapa, se puede determinar ventajosamente la posición del impacto en la superficie de manera que los valores de similitud atribuidos a las zonas activas de referencia, correspondan lo mejor posible a valores de similitud teóricos calculados para dichas zonas de referencia para un impacto generado en dicha posición en la superficie.
Estos valores de similitud teóricos pueden ser particularmente funciones de la posición del impacto en la superficie, determinadas de antemano para cada conjunto posible de zonas activas de referencia.
Las funciones en cuestión pueden ser determinadas durante la etapa de aprendizaje, por ejemplo ajustando una función tipo en los valores de similitud de las zonas activas entre ellas. La función tipo en cuestión puede depender de la forma del objeto y ser determinada de antemano, o bien de forma teórica, o bien experimentalmente.
Para coger un ejemplo concreto, la función de similitud teórica Rth(X,Y) entre dos puntos X, Y de la superficie (9) puede corresponder al máximo de la función de intercorrelación entre las señales Sx(t) y Sy(t) captadas por el sensor (6) respectivamente cuando unos impactos son generados en estos dos puntos X, Y, y esta función puede ser por ejemplo del tipo Rth(X, Y)=(sen(a(\beta).d))/(a(\beta).d), aproximada por ejemplo por Rth(X, Y)=1-[a(\beta).d]^{2}/6,
donde:
-
\vtcortauna d es la distancia entre X e Y,
-
\vtcortauna \beta es un ángulo entre por ejemplo el eje X (o el eje Y) y la dirección X-Y,
-
\vtcortauna y a(\beta) es un coeficiente que depende del ángulo \beta según una función elíptica:
a(\beta)=a1.cos(\beta+\beta0)+a2.sen((\beta+\beta0),
donde \beta0 es un ángulo representativo de la orientación de la elipse.
\vskip1.000000\baselineskip
Se puede determinar la función Rth para cada conjunto posible de zonas activas de referencias R1-R4, a partir de las señales predeterminadas Ri(t) de la biblioteca de señales, captadas durante la generación de impactos respectivamente en esas zonas activas de referencia en el curso de la fase de aprendizaje.
\newpage
A este efecto, para un conjunto dado de cuatro zonas de referencia R1-R4, se puede calcular el máximo de la función de intercorrelación de la señal R1(t) correspondiente a R1, con cada una de las señales R2(t), R3(t), R4(t) correspondientes a las zonas R2-R4. Se deducen valores de a1, a2 y \beta0. Se puede proceder a continuación del mismo modo a partir de las zonas de referencia R2, R3 y R4, lo que da a cada vez valores de a1, a2 y \beta0, y a continuación coger la media de los cuatro valores encontrados de este modo respectivamente para a1, a2 y \beta0: estos valores medios determinan entonces la función Rth para el conjunto de zonas de referencia R1-R4. Según una variante, la función Rth podría ser determinada por un proceso iterativo de optimización (del tipo método de los mínimos cuadrados) para minimizar una función de error entre la función de similitud teórica y los máximos de las funciones de intercorrelación entre las señales R1(t), R2(t), R3(t) y R4(t) cogidas dos a dos.
Una vez determinadas las funciones de similitud teóricas Rth mencionadas anteriormente, cuando se procura determinar la posición de un impacto I entre cuatro zonas activas adyacentes R1-R4 (ventajosamente puntuales), se puede determinar dicha posición mediante un proceso iterativo de optimización minimizando una función de error entre los valores D(i) definidos anteriormente (D(i)=Max(Ci(t)), siendo i en este caso el número de la zona activa de referencia Ri considerada) y los valores de similitud teórica Rth(I, Ri). Por ejemplo, se puede minimizar una función de error E igual a la suma de los valores (D(i)-Rth(I, Ri))^{2}.
Se debe comprender que el procedimiento que se ha descrito no se limita a los ejemplos que se han descrito; existen numerosas aplicaciones, entre las cuales:
-
\vtcortauna la utilización de cristales o de otras superficies como interfaz de entrada (4), en tiendas, museos, galerías de arte, u otros para permitir a los clientes o a los visitantes que se les presenten detalles por una pantalla o por medio de un altavoz referentes a los productos o las obras expuestas,
-
\vtcortauna la utilización de cristales u otras superficies para tablones de anuncio como interfaces de entrada (4), permitiendo a los transeúntes que se les presenten por ejemplo detalles en los anuncios en curso de visualización, o incluso que se les presenten informaciones generales referentes a un municipio u otro lugar (por ejemplo, actualidades o informaciones prácticas como por ejemplo un plano del lugar), u otros, presentándose dichos detalles o informaciones por ejemplo por medio de una pantalla visible en una parte inferior de un tablón de anuncio,
-
\vtcortauna la utilización de partes de paredes, de suelo, o de cualquier otro objeto como interfaz de entrada (4) para controlar, por ejemplo, sistemas domóticos (de este modo se puede permitir particularmente a los habitantes de un apartamento determinar por ellos mismos las ubicaciones de los interruptores, constituidos simplemente por las zonas activas (10) mencionadas anteriormente, posicionadas en las paredes o en otros lugares deseados),
-
\vtcortauna la utilización de partes de paredes, de suelo, o de cualquier otro objeto como interfaz de entrada (4) para controlar, por ejemplo, máquinas industriales particularmente en medio hostil (lugares que contienen explosivos, lugares a temperatura elevada, lugares con radioactividad elevada, etc.),
-
\vtcortauna la utilización de superficies lisas y fáciles de conservar como interfaz de entrada (4), para constituir teclados de entrada para objetos domésticos tales como un refrigerador, una lavadora u otros,
-
\vtcortauna la utilización de tableros para puertas de edificios como interfaces de entrada (4), constituyendo por ejemplo teclados virtuales de cerraduras electrónicas,
-
\vtcortauna la utilización del suelo para localizar la posición de una persona caminando por encima de éste,
-
\vtcortauna la realización de teclados o tableros de control insensibles a las poluciones, intemperies o a otras agresiones exteriores, en aplicaciones industriales, militares o incluso domésticas (eventualmente el sensor o sensores acústicos pueden estar totalmente integrados en el objeto que sirve de interfaz de entrada, particularmente si se trata de un objeto al menos parcialmente moldeado en plástico); cuando estas interfaces de entrada deben controlar un dispositivo (por ejemplo un microordenador) que comprende una pantalla de visualización, el teclado o tablero de control acústico puede estar constituido por la misma pantalla o por una pared transparente recubriendo dicha pantalla,
-
\vtcortauna la realización de interfaces de entradas en automóviles u otros vehículos.
\vskip1.000000\baselineskip
Se debe observar por otro lado que la interfaz de entrada (4) descrita anteriormente podría estar dotada de medios de tratamiento, permitiéndole efectuar localmente el reconocimiento de señales acústicas S(t) procedentes de zonas activas (10), enviando la interfaz de entrada (4) de este modo únicamente señales codificadas directamente a la unidad central (2), o a cualquier otro dispositivo electrónico, indicando directamente la zona activa (10) que ha sido tocada por el usuario y en caso deseado informaciones relacionadas con el impacto: fuerza del impacto y naturaleza del impacto.
Se debe observar que el procedimiento según la invención no requiere que el objeto (5) presente una estructura homogénea o predeterminada, o bien realizada con un cuidado particular, o bien realizada con dimensiones muy precisas, o con estados de superficie específicos. Bien al contrario, cuanto más heterogéneo y/o irregular es el objeto (5), más diferentes las unas de las otras serán las señales acústicas emitidas por las diferentes zonas activas (10) y mejor será el reconocimiento de las señales acústicas. Se puede incluso en algunos casos crear voluntariamente heterogeneidades tales como cavidades u otros en el objeto (5) para facilitar el reconocimiento de las señales acústicas procedentes de las zonas activas (10).
Por otro lado, cuando se determinan las señales predeterminadas de la biblioteca de señales en el curso de una fase de aprendizaje, se puede utilizar un sensor piezoeléctrico conectado por todos los medios conocidos a la unidad central (2) y fijado o bien en el dedo del usuario, o bien en el objeto (estilete u otro) utilizado para generar impactos en las zonas activas del objeto (5). En este caso, la señal de impulsión generada por el sensor piezoeléctrico en el momento del impacto se puede utilizar para iniciar la adquisición de la señal acústica predeterminada destinada a alimentar la biblioteca de señales, y/o para medir la intensidad del impacto, pudiendo ser utilizada dicha medida de intensidad para invalidar por ejemplo ciertas adquisiciones de señales predeterminadas particularmente cuando la intensidad es inferior a un umbral predeterminado o cuando dicha intensidad no está comprendida dentro de un intervalo predefinido.
Por otro lado, cuando se determinan las señales predeterminadas de la biblioteca de señales en el curso de una fase de aprendizaje, puede ser ventajoso no retener más que las señales acústicas captadas cuya amplitud es superior a un primer umbral de referencia relativamente elevado. En este caso, durante el funcionamiento normal del dispositivo, se puede a continuación tener en cuenta las señales acústicas cuya amplitud supere un segundo umbral predeterminado claramente inferior al primer umbral. De este modo el primer umbral predeterminado puede ser igual a varias veces (al menos dos o tres veces) el valor medio temporal de la amplitud absoluta del ruido ambiental, medido por ejemplo durante algunos segundos, mientras que el segundo umbral predeterminado puede por ejemplo ser igual a 1,5 veces dicho valor medio. De esta manera, no se registran más que señales de referencia de buena calidad durante la fase de aprendizaje, aunque conservando una gran sensibilidad del dispositivo durante su funcionamiento
normal.
En caso deseado, la unidad central (2) puede estar dotada de un teclado auxiliar de programación (no representado) que puede ser utilizado particularmente durante la fase de aprendizaje, para indicar por ejemplo qué tipo de señal se genera. El tipo de señal generada puede particularmente ser una de los tipos siguientes:
-
nueva señal en sustitución de una de las señales de referencia de la biblioteca de señales (se puede de este modo comunicar la identificación de la señal de referencia sustituida a la unidad central (2) por medio del teclado auxiliar),
-
nueva señal de referencia (o bien para una biblioteca de referencia preexistente pero incompleta, o bien para una nueva biblioteca de referencia correspondiendo particularmente a nuevas condiciones de temperatura, de humedad o de estado del objeto -5-),
-
nueva señal destinada a verificar una señal de referencia ya existente en una biblioteca de señales.
\vskip1.000000\baselineskip
Por otro lado, cuando se determinan las señales predeterminadas de la biblioteca de señales en el curso de una fase de aprendizaje, se puede prever en caso deseado no validar más que las señales de referencia de dicha biblioteca más que en el momento en que éstas se confirman por generación de uno o varios impactos en la misma zona, en un lapso de tiempo predeterminado según la generación de un primer impacto.
Cuando se determinan las señales predeterminadas de la biblioteca de señales en el curso de una fase de aprendizaje, los impactos generados en el objeto (5) en el curso de dicha fase de aprendizaje pueden ser generados:
-
o bien con un objeto duro tal como un estilete, en cuyo caso el mismo estilete se utilizará preferentemente durante el funcionamiento normal del dispositivo,
-
o bien con un objeto más amortiguador tal como, por ejemplo, una goma plástica dura fijada en el extremo de un bolígrafo o similar (los inventores han podido así obtener buenos resultados con una goma plástica dura para transparentes de marca "Staedler"), en cuyo caso se pueden generar los impactos en el objeto (5) igual de bien con objetos relativamente duros que con objetos menos duros (uña del dedo, pulpa del dedo u otro) durante el funcionamiento normal del dispositivo.
\vskip1.000000\baselineskip
Por otro lado, según una variante del procedimiento descrito anteriormente para reconocer la zona activa (10) de donde viene la señal captada S(t), se puede utilizar el procedimiento siguiente:
(1)
durante la fase de aprendizaje, se calcula la transformada de Fourier R_{i}(\omega) de cada señal acústica R_{i}(t) generada por un impacto en la zona activa i, donde i es un índice comprendido entre 1 y n:
R_{i}(\omega)=|R_{i}(\omega)|.e^{j \varphi i(\omega)}
No se conserva de esta transformada de Fourier más que la componente de fase, en las únicas bandas de frecuencia \omega donde la amplitud del espectro es superior a un umbral predeterminado.
La forma frecuencial de la señal de referencia conservada se expresa pues bajo la forma R'_{i}(\omega)=e^{j \varphi i(\omega)} para las frecuencias \omega en las cuales |R_{i}(\omega)| es superior a un umbral predeterminado, y R'_{i}(\omega)=0 en otras frecuencias \omega.
El umbral predeterminado en cuestión puede ser igual por ejemplo al máximo de MAX/D y de |B(\omega)|, donde:
-
MAX puede ser o bien el valor máximo de |R_{i}(\omega)|, o bien el valor máximo de los módulos |R_{i}(\omega)| normalizados cada uno en energía, o bien el valor máximo de la envolvente de la media de los módulos |R_{i}(\omega)| normalizados cada uno en energía,
-
D es una constante, por ejemplo igual a 100,
-
|B(\omega)| es la media de varios espectros de ruido en el objeto (5), adquiridos en diferentes instantes.
(2)
Durante el funcionamiento normal del dispositivo, cada señal captada S(t) recibe el mismo tratamiento que en la etapa anterior (1), de manera que se obtiene una señal S'(\omega)=e^{j \phi (\omega)} para las frecuencias \omega en las cuales |S(\omega)| es superior a un umbral predeterminado mencionado anteriormente, siendo S'(\omega) igual a 0 en las otras frecuencias.
(3)
Se calcula a continuación un producto P_{i}(\omega) igual a S'(\omega) multiplicado por el conjugado de R'(\omega) para i=1 ...n.
(4)
Se normalizan los productos P_{i}(\omega) dividiéndolos por sus integrales.
(5)
Se realiza a continuación la transformada de Fourier inversa de todos los productos P_{i}(\omega), y se obtienen funciones temporales X_{i}(t).
\vskip1.000000\baselineskip
Según las diferentes funciones X_{i}(t), y particularmente según su máximo, se puede entonces atribuir la señal S(t) a una de las zonas activas (10). A título de ejemplo, se puede calcular el valor máximo (en valor relativo o en valor absoluto), de las diferentes funciones X_{i}(t), y atribuir la señal S(t) a la zona activa i que corresponda a la función X_{i}(t) presentando el máximo más grande. Eventualmente, se puede comparar igualmente el máximo de la función X_{i}(t) retenida con un umbral definido de antemano, por ejemplo igual a 0,6 y decidir que la señal S(t) debe ser atribuida a la zona i cuando el máximo de X_{i}(t) es superior a dicho umbral (si varias funciones X_{i}(t) tienen un máximo superior a 0,6, no se conserva entonces más que la función X_{i}(t) del máximo más grande).
Eventualmente, es posible verificar que la atribución de la señal S(t) a la zona activa i es correcta, por ejemplo calculando un valor MM_{i}=M_{i}/M donde M_{i} es el máximo del valor absoluto de X_{i}(t) y M es el valor medio de todos los valores M_{i}. La atribución de la señal S(t) a la zona activa i puede entonces considerarse como correcta si dicho valor MM_{i} es superior a un cierto límite, igual por ejemplo a 1,414.
Se debe observar por otro lado que los valores MM_{i} mencionados anteriormente pueden calcularse reemplazando S'(\omega) por R'_{i}(\omega), con el fin de obtener una información sobre la resolución espacial de las zonas activas. En particular, se puede verificar entonces que una zona activa de índice i no tiene riesgo de ser confundida con otra, verificando que el valor MM_{i} correspondiente es superior a un límite predeterminado, por ejemplo superior a 1,414.
Por otro lado, es posible igualmente tener en cuenta diferentes parámetros del ambiente (temperatura, higrometría, tensiones mecánicas, etc.) modificando las señales predeterminadas de la biblioteca de señales en función del parámetro o parámetros del ambiente.
A este efecto, se puede recurrir a unos de los métodos de corrección siguientes:
-
expansión o compresión temporal lineal de las señales de referencia de la biblioteca de señales: en este caso, se reemplazan las señales de referencia R_{i}(t) de la biblioteca de señales por señales R_{i}(\alphat), donde \alpha es un coeficiente multiplicador positivo no nulo que es función de los parámetros del ambiente, pudiendo ser determinado dicho coeficiente \alpha teóricamente, o incluso experimentalmente para un material dado, o incluso experimentalmente para cada objeto (5);
-
expansión o compresión temporal lineal de las señales captadas S(t): en este caso, las señales de referencia R_{i}(t) no se modifican, pero se reemplaza la señal captada S(t) por S(\alphat) donde \alpha es un coeficiente tal como está definido anteriormente;
\newpage
-
expansión o compresión no lineal en frecuencia de las señales de referencia: en este caso, se reemplazan {}\hskip17cm las señales frecuenciales R'_{i}(\omega) por R'_{i}(\omega'), con \omega' = \frac{\omega \beta ^{2}}{1 + \sqrt{(\omega / \omega _{N}) \cdot (\beta - 1)}}, donde \omega_{N} es igual a la mitad {}\hskip17cm de la frecuencia de muestreo del dispositivo de tratamiento, y \beta es un coeficiente determinado de forma teórica o experimental;
-
expansión o compresión no lineal en frecuencia de la señal captada S(t): en este caso, las señales de referencia de la biblioteca de señales no se modifican, y se reemplaza la señal S'(\omega) por S'(\omega'), estando definida \omega' anteriormente.
\vskip1.000000\baselineskip
En los dos casos mencionados anteriormente de expansión o compresión no lineal en frecuencia, también se puede recurrir a una corrección de fase media, en cuyo caso se reemplazan las señales R_{i}(\omega') por R_{i}(\omega').M'(\omega)/N'(\omega) y se reemplazan las señales S(\omega') por S(\omega').M'(\omega)/N'(\omega). En una u otra de estas fórmulas, N'(\omega)=M(\omega)/|M(\omega)|, y N'(\omega)=N(\omega)/|N(\omega)|, siendo M(\omega) igual a la media de todas las R_{i}(\omega) y siendo N(\omega) igual a la media de todas las R_{i}(\omega').
Las diferentes correcciones mencionadas anteriormente de las señales de referencia R_{i}(\omega) o de la señal captada S(\omega) pueden efectuarse o bien de forma automática por la unidad central (2), particularmente en función de informaciones entregadas por uno o varios sensores (no representados), o manualmente por el usuario.
Por otro lado, se debe observar que la unidad central (2) puede comportar varias bibliotecas de señales de referencia adaptadas a diferentes valores de parámetros del ambiente.
Por otro lado, para adaptarse a los tipos de impacto generados durante la utilización del dispositivo, y particularmente para adaptarse a la utilización o bien de un dedo del usuario, o bien de otro objeto para generar los impactos, puede ser ventajoso solicitar al usuario que genere impactos en una o varias zonas activas (10) predeterminadas, por ejemplo dos zonas activas de índices m y p. De este modo se captan dos señales temporales S_{m}(t) y S_{p}(t), de las cuales se calculan las transformadas de Fourier S_{m}(\omega) y S_{p}(\omega), y a continuación se calcula la media M_{1}(\omega) de los dos términos siguientes:
-
(R_{m}(\omega).|S_{m}(\omega)|)/(|R_{m}(\omega)|.S_{m}(\omega)),
-
y (R_{p}(\omega).|S_{p}(\omega)|)/(|R_{p}(\omega)|.S_{p}(\omega)).
A continuación esta media M_{1}(\omega) se utiliza en la etapa (3) definida anteriormente para reemplazar el producto P_{i}(\omega) por M_{1}(\omega).P_{i}(\omega), siendo este producto utilizado a continuación en lugar de P_{i}(\omega) en la etapa (4).
Por otro lado, se debe observar que la invención permite a un usuario definir a su modo zonas activas, y la unidad central (2) puede adaptarse para mantener activa esta definición de zonas activas únicamente durante la utilización efectiva del objeto (5) como interfaz acústica. En este caso, la definición anteriormente mencionada de zonas activas es borrada por la unidad central (2) después de un cierto periodo de inutilización del dispositivo.
Se debe observar igualmente que la función generada por un impacto en una zona activa puede ser modulada en caso deseado en función de la intensidad de dicho impacto.
Se debe observar igualmente que, cuando el objeto (5) presenta fenómenos de resonancia que provocan propagaciones prolongadas de ondas acústicas a cada impacto en las zonas activas, puede ser ventajoso elevar el umbral de detección de las señales acústicas S(t) (por ejemplo hasta 0,5 veces el valor máximo admisible por el sistema electrónico de adquisición de la señal S(t)) cuando una señal S(t) ha sido detectada, y a continuación bajar dicho umbral de detección (particularmente de forma exponencial) hasta su nivel normal: así se evitan detecciones múltiples de un mismo impacto.
Se debe observar que, en todos los modos de realización de la invención, sería posible eventualmente definir una sola zona activa en el objeto (5), en cuyo caso sin embargo es posible codificar varias funciones en esta zona activa única, por ejemplo según el número de impactos generados consecutivamente en la misma zona.
Por otro lado, las zonas activas (10) pueden eventualmente no estar definidas de antemano, sino estar simplemente definidas en función de los impactos sucesivos recibidos durante la utilización del dispositivo. De este modo, se puede por ejemplo concebir el dispositivo para que comporte tres zonas activas, y que cada una se defina simplemente para la recepción de un primer impacto en cada zona, y que sean reconocidas a continuación como "primera zona", "segunda zona" y "tercera zona" para la recepción de impactos siguientes.
Por otro lado, cuando las zonas activas son muy numerosas, se puede en caso deseado recurrir a un dispositivo automatizado para generar las señales de referencia en stock de la biblioteca de señales en el curso de la fase de aprendizaje. Este dispositivo automatizado podría por ejemplo constar de un sistema de desplazamiento de dos dimensiones que conste de dos motores paso a paso para desplazar por ejemplo un estilete de excitación o similar por la superficie del objeto (5) y para generar impactos por medio de dicho estilete, accionado por ejemplo por un solenoide, a nivel de las diferentes zonas activas.
Todavía en el caso en el que las zonas activas (10) son muy numerosas, es posible repartirlas en varios grupos de semejanza. En este caso, durante la utilización corriente del dispositivo, cuando un impacto genera una señal S(t), un primer tratamiento permite asignar dicha señal S(t) a uno de los grupos de semejanza, y a continuación un tratamiento afinado permite asignar dicha señal S(t) a una de las zonas activas de dicho grupo de semejanza.
Se debe observar también que la misma unidad central (2) podría en caso deseado tratar las señales procedentes de varios objetos (5). Además, es posible igualmente interconectar directamente el sensor o los sensores acústicos con una red particularmente IP, para dirigir las señales captadas hacia una dirección IP única a partir de la cual dichas señales puedan ser explotadas por cualquier ordenador conectado a la red IP.

Claims (26)

1. Procedimiento en el cual se localiza un impacto en una superficie (9, 15, 17, 22) que pertenece a un objeto (5, 3, 16, 18) formando interfaz acústica, dotado de al menos un sensor acústico (6), procedimiento en el cual se capta al menos una señal a partir de ondas acústicas generadas en el objeto formando interfaz acústica (5, 3, 16, 18) por dicho impacto y se localiza el impacto por tratamiento de dicha señal captada,
caracterizado porque consta de una etapa de reconocimiento en el curso de la cual se compara la señal captada con al menos una señal predeterminada correspondiendo a la señal captada cuando se genera un impacto en al menos una zona activa (10) perteneciendo a la superficie del objeto formando interfaz acústica (5, 3, 16, 18), y se asocia el impacto a dicha zona activa (10) si la señal captada está suficientemente cerca de dicha señal predeterminada.
2. Procedimiento según la reivindicación 1, en el cual la superficie del objeto formando interfaz acústica consta de varias zonas activas (10) y, en el curso de la etapa de reconocimiento, se compara la señal captada con varias señales predeterminadas correspondiendo cada una a la señal captada cuando se genera un impacto sobre dichas zonas activas (10).
3. Procedimiento según la reivindicación 1 o la reivindicación 2, en el cual se utilizan varios sensores acústicos (6) y, en el curso de la etapa de reconocimiento, se capta una señal para cada sensor acústico y se comparan las señales captadas por los diferentes sensores acústicos con las señales predeterminadas independientemente las unas de las otras.
4. Procedimiento según cualquiera de las reivindicaciones anteriores, en el cual se utilizan varios sensores acústicos (6) y, en el curso de la etapa de reconocimiento, se capta una señal para cada sensor acústico y se comparan las señales captadas por los diferentes sensores acústicos con las señales predeterminadas diferentemente las unas de las otras.
5. Procedimiento según cualquiera de las reivindicaciones anteriores, en el cual se utilizan varios sensores acústicos (6) midiendo varias magnitudes diferentes.
6. Procedimiento según cualquiera de las reivindicaciones anteriores, en el cual se utilizan como máximo dos sensores acústicos.
7. Procedimiento según la reivindicación 1 o la reivindicación 2, en el cual se utiliza un solo sensor acústico (6).
8. Procedimiento según cualquiera de las reivindicaciones anteriores, comprendiendo una etapa inicial de aprendizaje en el curso de la cual se determina experimentalmente cada señal predeterminada generando al menos un impacto en cada zona activa (10).
9. Procedimiento según cualquiera de las reivindicaciones 1 a 8, en el cual cada señal predeterminada es una señal teórica.
10. Procedimiento según cualquiera de las reivindicaciones anteriores, en el cual en el curso de la etapa de reconocimiento se compara la señal captada con al menos dicha señal predeterminada por intercorrelación.
11. Procedimiento según cualquiera de las reivindicaciones 1 a 9, en el cual en el curso de la etapa de reconocimiento se compara la señal captada con al menos dicha señal predeterminada por un procedimiento de reconocimiento escogido entre un reconocimiento vocal, un reconocimiento de señales, un reconocimiento de forma y un reconocimiento por red neuronal.
12. Procedimiento según cualquiera de las reivindicaciones anteriores, en el cual en el curso de la etapa de reconocimiento, se asocia la señal captada o bien a una sola zona activa, o bien a ninguna zona activa.
13. Procedimiento según la reivindicación 12, en el cual se asocia cada zona activa a una información predeterminada y cuando se asocia el impacto a una zona activa, se utiliza la información predeterminada correspondiente a dicha zona activa por un dispositivo electrónico.
14. Procedimiento según cualquiera de las reivindicaciones 12 y 13, en el cual la superficie (9, 15, 17, 22) del objeto formando interfaz acústica consta de un número n de zonas activas (10), siendo n al menos igual a 2, y la etapa de reconocimiento consta de las subetapas siguientes:
-
se procede a una intercorrelación de la señal captada con dichas señales predeterminadas Ri(t), siendo i un entero natural comprendido entre 1 y n que designa una zona activa, y se obtienen así funciones de intercorrelación Ci(t),
-
se determina una zona activa j potencialmente activada que corresponde al resultado de intercorrelación Cj(t) con un máximo de amplitud más elevado que los de los otros resultados Ci(t),
-
se determina igualmente la distribución D(i) de los máximos de amplitud de los resultados de intercorrelación:
D(i)=Max((Ci(t)),
-
se determina igualmente la distribución D'(i) de los máximos de amplitud de los resultados de intercorrelación C'i(t) entre Rj(t) y las diferentes señales predeterminadas Ri(t):
D'(i)=Max((C'i(t)),
-
se determina si el impacto ha sido generado en la zona activa j en función del nivel de correlación entre las distribuciones D(i) y D'(i).
15. Procedimiento según cualquiera de las reivindicaciones 12 y 13, en el cual en el curso de la etapa de reconocimiento se trata la señal captada para extraer de ella datos representativos de ciertas características de la señal captada y se comparan los datos así extraídos con los datos de referencia extraídos de la señal captada cuando se genera un impacto en cada zona activa.
16. Procedimiento según la reivindicación 15, en el cual en el curso de la etapa de reconocimiento se determina un código a partir de dichos datos extraídos de la señal captada y se compara este código con una tabla que proporciona una correspondencia entre al menos ciertos códigos y cada zona activa.
17. Procedimiento según cualquiera de las reivindicaciones 1 a 14, en el cual el objeto formando interfaz acústica (5, 3, 16, 18) consta al menos de dos zonas activas (10) y en el curso de la etapa de reconocimiento se determinan valores de similitud representativos de la similitud entre la señal captada y las señales predeterminadas, se asocia el impacto (I) con varias zonas activas adyacentes (R1-R4) correspondiendo a un máximo de similitud, llamadas zonas activas de referencia, y a continuación se determina la posición del impacto (I) en la superficie en función de los valores de similitud atribuidos a las zonas activas de referencia (R1-R4).
18. Procedimiento según la reivindicación 17, en el cual se determina la posición del impacto (I) en la superficie de manera que los valores de similitud atribuidos a las zonas activas de referencia (R1-R4) correspondan lo más posible a valores de similitud teóricos calculados por dichas zonas activas de referencia para un impacto generado en dicha posición en la superficie.
19. Procedimiento según la reivindicación 18, en el cual se determina la posición del impacto (I) en la superficie de manera que los valores de similitud atribuidos a las zonas activas de referencia (R1-R4) correspondan lo mejor posible a valores de similitud teóricos calculados por dichas zonas activas de referencia para un impacto generado en dicha posición en la superficie.
20. Procedimiento según la reivindicación 19, en el cual los valores de similitud teóricos son funciones de la posición del impacto en la superficie, determinadas de antemano para cada conjunto posible de zonas activas de referencia (R1-R4).
21. Procedimiento según la reivindicación 8, en el cual se identifica la zona activa mediante la comparación entre la fase de las señales predeterminadas R_{i}(t) y la de la señal captada.
22. Procedimiento según la reivindicación 21, en el cual:
-
durante la fase de aprendizaje, se calcula la transformada de Fourier R_{i}(\omega)=|R_{i}(\omega)|.e^{j \phi i(\omega)} de cada señal acústica R_{i}(t) generada por un impacto en la zona activa i, donde i es un índice comprendido entre 1 y n, y no se conserva de esta transformada de Fourier más que la componente de fase e^{j \phi i(\omega)}, en las únicas bandas de frecuencia \omega donde la amplitud |R_{i}(\omega)| es superior a un umbral predeterminado,
-
y a continuación se aplica el mismo tratamiento a cada señal acústica captada S(t) durante el funcionamiento normal del dispositivo.
23. Procedimiento según la reivindicación 21, en el cual el umbral predeterminado es igual al máximo de MAX/D y de |B(\omega)|, donde:
-
se escoge MAX entre el valor máximo de los módulos |R_{i}(\omega)|, el valor máximo de los módulos |R_{i}(\omega)| normalizados cada uno en energía y el valor máximo de la envoltura de la media de los módulos |R_{i}(\omega)| normalizados cada uno en energía,
-
D es una constante,
-
|B(\omega)| es la media de varios espectros de ruido en el objeto formando interfaz acústica, adquiridos a distintos instantes.
24. Procedimiento según la reivindicación 22 o la reivindicación 23, en el cual durante el funcionamiento normal del dispositivo:
-
se calcula un producto P_{i}(\omega) igual a S'(\omega) multiplicado por el conjugado de R_{i}'(\omega) para referencias i=1 ... n,
-
y a continuación se normalizan los productos P_{i}(\omega),
-
a continuación se efectúa la transformada de Fourier inversa de todos los productos P_{i}(\omega) y se obtienen funciones temporales X_{i}(t),
-
y se atribuye la señal S(t) a una zona activa (10) en función de dichas funciones temporales X_{i}(t).
25. Procedimiento según la reivindicación 24, en la cual se atribuye la señal S(t) a una zona activa (10) en función de los valores máximos de dichas funciones temporales X_{i}(t).
26. Dispositivo especialmente adaptado para poner en práctica un procedimiento según cualquiera de las reivindicaciones anteriores, destinado a localizar un impacto en una superficie (9, 15, 17, 22) perteneciendo a un objeto (5, 3, 16, 18) formando interfaz acústica, dotado de al menos un sensor acústico (6), comprendiendo dicho dispositivo medios para captar al menos una señal a partir de ondas acústicas generadas en el objeto formando interfaz acústica (5, 3, 16, 18) por dicho impacto y medios para localizar el impacto por tratamiento de dicha señal captada,
caracterizado porque consta de medios de reconocimiento adaptados para comparar la señal captada con al menos una señal predeterminada correspondiendo a la señal que es captada cuando se genera un impacto en al menos una zona activa (10) perteneciendo a la superficie del objeto (5, 3, 16, 18), y de medios para asociar el impacto a dicha zona activa (10) si la señal captada está suficientemente cerca de dicha señal predeterminada.
ES03760020T 2002-06-12 2003-06-12 Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. Expired - Lifetime ES2312810T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0207208A FR2841022B1 (fr) 2002-06-12 2002-06-12 Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
FR0207208 2002-06-12

Publications (1)

Publication Number Publication Date
ES2312810T3 true ES2312810T3 (es) 2009-03-01

Family

ID=29595165

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03760020T Expired - Lifetime ES2312810T3 (es) 2002-06-12 2003-06-12 Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento.

Country Status (14)

Country Link
US (2) US7345677B2 (es)
EP (1) EP1512116B9 (es)
JP (1) JP4249705B2 (es)
KR (1) KR100991955B1 (es)
CN (1) CN100412777C (es)
AT (1) ATE404912T1 (es)
AU (1) AU2003253071A1 (es)
CA (1) CA2489326C (es)
DE (1) DE60322893D1 (es)
DK (1) DK1512116T3 (es)
ES (1) ES2312810T3 (es)
FR (1) FR2841022B1 (es)
PT (1) PT1512116E (es)
WO (1) WO2003107261A2 (es)

Families Citing this family (139)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0116310D0 (en) * 2001-07-04 2001-08-29 New Transducers Ltd Contact sensitive device
US6871149B2 (en) * 2002-12-06 2005-03-22 New Transducers Limited Contact sensitive device
FR2874274B1 (fr) * 2004-08-11 2007-07-20 Sensitive Object Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
FR2876406B1 (fr) * 2004-10-12 2008-05-02 Sensitive Object Installation de controle d'acces a commande acoustique et dispositif de controle d'acces pour une telle installation
US8392486B2 (en) 2004-12-29 2013-03-05 Elo Touch Solutions, Inc. Method for determining the position of impacts
US20060139339A1 (en) * 2004-12-29 2006-06-29 Pechman Robert J Touch location determination using vibration wave packet dispersion
US7583808B2 (en) * 2005-03-28 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Locating and tracking acoustic sources with microphone arrays
DE602005020068D1 (de) * 2005-04-13 2010-04-29 Sensitive Object Verfahren zur bestimmung von aufprallstellen mittels akustischer bildgebung
US7683890B2 (en) * 2005-04-28 2010-03-23 3M Innovative Properties Company Touch location determination using bending mode sensors and multiple detection techniques
FR2885427B1 (fr) * 2005-05-09 2007-10-26 Peugeot Citroen Automobiles Sa Dispositif de controle et/ou de commande d'elements d'equipements d'un vehicule automobile a boutons-poussoirs et dalle tactile
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
US7593005B2 (en) * 2005-12-13 2009-09-22 Awr Consulting Inc. Touch detection system
EP1798635A1 (en) * 2005-12-14 2007-06-20 Research In Motion Limited Handheld electronic device having virtual keypad input device, and associated method
US7800596B2 (en) * 2005-12-14 2010-09-21 Research In Motion Limited Handheld electronic device having virtual navigational input device, and associated method
ATE545082T1 (de) * 2005-12-14 2012-02-15 Research In Motion Ltd Tragbare elektronische vorrichtung mit virtuellem navigationseingabegerät und entsprechendes verfahren
US7907129B2 (en) * 2005-12-14 2011-03-15 Research In Motion Limited Handheld electronic device having virtual keypad input device, and associated method
RU2395853C2 (ru) * 2006-04-12 2010-07-27 Электролюкс Хоум Продактс Корпорейшн Н.В. Бытовой электроприбор
ES2311360B1 (es) * 2006-07-07 2009-12-02 Bsh Electrodomesticos España, S.A. Aparato electrodomestico.
US8233353B2 (en) * 2007-01-26 2012-07-31 Microsoft Corporation Multi-sensor sound source localization
DE102007023826A1 (de) * 2007-05-21 2008-11-27 Polytec Gmbh Verfahren und Vorrichtung zur berührungslosen Schwingungsmessung
FR2916545B1 (fr) * 2007-05-23 2009-11-20 Inst Pour Le Dev De La Science Procede pour localiser un toucher sur une surface et dispositif pour la mise en oeuvre de ce procede.
WO2008146098A1 (en) * 2007-05-28 2008-12-04 Sensitive Object Method for determining the position of an excitation on a surface and device for implementing such a method
US8493332B2 (en) * 2007-06-21 2013-07-23 Elo Touch Solutions, Inc. Method and system for calibrating an acoustic touchscreen
US8730213B2 (en) * 2007-07-02 2014-05-20 Elo Touch Solutions, Inc. Method and system for detecting touch events based on redundant validation
US8378974B2 (en) * 2007-07-02 2013-02-19 Elo Touch Solutions, Inc. Method and system for detecting touch events based on magnitude ratios
EP2017703A1 (en) * 2007-07-09 2009-01-21 Sensitive Object Touch control system and method for localising an excitation
GB0721475D0 (en) * 2007-11-01 2007-12-12 Asquith Anthony Virtual buttons enabled by embedded inertial sensors
ATE545083T1 (de) 2007-12-21 2012-02-15 Tyco Electronics Services Gmbh Verfahren zur bestimmung der positionen mindestens zweier einschläge
JP4926091B2 (ja) * 2008-02-19 2012-05-09 株式会社日立製作所 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム
US8842097B2 (en) * 2008-08-29 2014-09-23 Nec Corporation Command input device, mobile information device, and command input method
EP2175348A1 (en) * 2008-10-07 2010-04-14 Sensitive Object Tactile man-machine interface with data communication interface
FR2939219B1 (fr) * 2008-12-03 2012-08-03 Faurecia Interieur Ind Dispositif d'interface homme-machine a detection acoustique et vehicule automobile comprenant un tel dispositif.
TW201026009A (en) * 2008-12-30 2010-07-01 Ind Tech Res Inst An electrical apparatus, circuit for receiving audio and method for filtering noise
US8797279B2 (en) 2010-05-25 2014-08-05 MCube Inc. Analog touchscreen methods and apparatus
US8928602B1 (en) 2009-03-03 2015-01-06 MCube Inc. Methods and apparatus for object tracking on a hand-held device
DE112010002072T5 (de) * 2009-05-22 2012-10-11 Semiconductor Components Industries, Llc Verfahren und Vorrichtung zum Detektieren eines Haltezustands auf einer akustischen Berührungsoberfläche
EP2264575B1 (en) * 2009-06-19 2017-08-09 Elo Touch Solutions, Inc. Method for determining the locations of one or more impacts or touches on a surface of an object including two or more transducers
CN102804112A (zh) * 2009-06-23 2012-11-28 电子触控产品解决方案公司 一种方法和用于执行该方法的触摸检测装置
US8823007B2 (en) 2009-10-28 2014-09-02 MCube Inc. Integrated system on chip using multiple MEMS and CMOS devices
US8477473B1 (en) 2010-08-19 2013-07-02 MCube Inc. Transducer structure and method for MEMS devices
US8421082B1 (en) 2010-01-19 2013-04-16 Mcube, Inc. Integrated CMOS and MEMS with air dielectric method and system
US8476129B1 (en) 2010-05-24 2013-07-02 MCube Inc. Method and structure of sensors and MEMS devices using vertical mounting with interconnections
US8710597B1 (en) 2010-04-21 2014-04-29 MCube Inc. Method and structure for adding mass with stress isolation to MEMS structures
US8553389B1 (en) 2010-08-19 2013-10-08 MCube Inc. Anchor design and method for MEMS transducer apparatuses
US8310457B2 (en) * 2009-06-30 2012-11-13 Research In Motion Limited Portable electronic device including tactile touch-sensitive input device and method of protecting same
FR2948787B1 (fr) 2009-07-29 2011-09-09 Commissariat Energie Atomique Dispositif et procede de localisation d'un contact localement deformant sur une surface tactile deformable d'un objet
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
US8441790B2 (en) * 2009-08-17 2013-05-14 Apple Inc. Electronic device housing as acoustic input device
US9696856B2 (en) 2009-09-29 2017-07-04 Elo Touch Solutions, Inc. Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen
JP5469995B2 (ja) * 2009-10-20 2014-04-16 古野電気株式会社 ドップラ計測器、ドップラ計測方法、潮流計、および潮流計測方法
US9709509B1 (en) * 2009-11-13 2017-07-18 MCube Inc. System configured for integrated communication, MEMS, Processor, and applications using a foundry compatible semiconductor process
US20110156861A1 (en) * 2009-12-31 2011-06-30 Motorola, Inc. Electronic Device Including a Wireless Actuator and a Method Thereof
US8637943B1 (en) 2010-01-04 2014-01-28 MCube Inc. Multi-axis integrated MEMS devices with CMOS circuits and method therefor
EP2524288A1 (en) 2010-01-13 2012-11-21 Elo Touch Solutions, Inc. Noise reduction in electronic device with touch sensitive surface
US8624878B2 (en) * 2010-01-20 2014-01-07 Apple Inc. Piezo-based acoustic and capacitive detection
KR101678549B1 (ko) * 2010-02-02 2016-11-23 삼성전자주식회사 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스
US8936959B1 (en) 2010-02-27 2015-01-20 MCube Inc. Integrated rf MEMS, control systems and methods
US8794065B1 (en) 2010-02-27 2014-08-05 MCube Inc. Integrated inertial sensing apparatus using MEMS and quartz configured on crystallographic planes
US8576202B2 (en) * 2010-03-25 2013-11-05 Elo Touch Solutions, Inc. Bezel-less acoustic touch apparatus
EP2372509A1 (en) 2010-03-29 2011-10-05 Tyco Electronics Services GmbH Method for detecting a sustained contact and corresponding device
US8367522B1 (en) 2010-04-08 2013-02-05 MCube Inc. Method and structure of integrated micro electro-mechanical systems and electronic devices using edge bond pads
KR101997034B1 (ko) * 2010-04-19 2019-10-18 삼성전자주식회사 인터페이스 방법 및 장치
US8928696B1 (en) 2010-05-25 2015-01-06 MCube Inc. Methods and apparatus for operating hysteresis on a hand held device
US8652961B1 (en) 2010-06-18 2014-02-18 MCube Inc. Methods and structure for adapting MEMS structures to form electrical interconnections for integrated circuits
US8869616B1 (en) 2010-06-18 2014-10-28 MCube Inc. Method and structure of an inertial sensor using tilt conversion
EP2405332B1 (en) * 2010-07-09 2013-05-29 Elo Touch Solutions, Inc. Method for determining a touch event and touch sensitive device
US8993362B1 (en) 2010-07-23 2015-03-31 MCube Inc. Oxide retainer method for MEMS devices
US8941623B2 (en) 2010-07-27 2015-01-27 Motorola Mobility Llc Methods and devices for determining user input location based on device support configuration
US8907930B2 (en) 2010-08-06 2014-12-09 Motorola Mobility Llc Methods and devices for determining user input location using acoustic sensing elements
GB201014309D0 (en) 2010-08-27 2010-10-13 Inputdynamics Ltd Signal processing systems
US9459733B2 (en) 2010-08-27 2016-10-04 Inputdynamics Limited Signal processing systems
US8723986B1 (en) 2010-11-04 2014-05-13 MCube Inc. Methods and apparatus for initiating image capture on a hand-held device
GB201019767D0 (en) 2010-11-22 2011-01-05 Bpb Ltd Actuator and method of manufacture thereof
KR20120083693A (ko) * 2011-01-18 2012-07-26 삼성모바일디스플레이주식회사 터치 감지 방법, 그 방법을 구현하기 위한 프로그램이 기록된 기록매체 및 터치 감지 시스템
US9477350B2 (en) * 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
US10198097B2 (en) 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US8576197B2 (en) * 2011-05-16 2013-11-05 Pixart Imaging, Inc. Noise blanking for capacitive touch displays
EP2525280A1 (en) 2011-05-17 2012-11-21 Elo Touch Solutions, Inc. Method for detecting a touch-and-hold touch event and corresponding device
US8706443B2 (en) * 2011-06-21 2014-04-22 General Electric Company System and method for monitoring rotating device
US8725451B2 (en) * 2011-06-21 2014-05-13 General Electric Company Systems and methods for use in monitoring operation of a rotating device
US8655621B2 (en) * 2011-06-21 2014-02-18 General Electric Company Systems and methods for use in monitoring operation of a rotating device
US8969101B1 (en) 2011-08-17 2015-03-03 MCube Inc. Three axis magnetic sensor device and method using flex cables
TW201316240A (zh) * 2011-10-06 2013-04-16 Rich Ip Technology Inc 利用圖形用戶介面影像之觸碰處理方法及系統
EP2581814A1 (en) 2011-10-14 2013-04-17 Elo Touch Solutions, Inc. Method for detecting a touch-and-hold touch event and corresponding device
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
US11340124B2 (en) 2017-08-14 2022-05-24 Sentons Inc. Piezoresistive sensor for detecting a physical disturbance
US9449476B2 (en) 2011-11-18 2016-09-20 Sentons Inc. Localized haptic feedback
US9594450B2 (en) 2011-11-18 2017-03-14 Sentons Inc. Controlling audio volume using touch input force
US9756927B2 (en) 2011-11-30 2017-09-12 Apple Inc. Mounting system for portable electronic device
US9335844B2 (en) * 2011-12-19 2016-05-10 Synaptics Incorporated Combined touchpad and keypad using force input
US8904052B2 (en) 2011-12-23 2014-12-02 Apple Inc. Combined input port
US9372581B2 (en) * 2012-01-09 2016-06-21 Broadcom Corporation Interference estimation and adaptive reconfiguration of a capacitive touch controller
US9513727B2 (en) 2012-07-18 2016-12-06 Sentons Inc. Touch input surface microphone
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
US9524063B2 (en) 2012-07-18 2016-12-20 Sentons Inc. Detection of a number of touch contacts of a multi-touch input
EP2693314A1 (en) 2012-07-31 2014-02-05 Elo Touch Solutions, Inc. Touch sensitive display with acoustic isolation
EP2693315A1 (en) 2012-07-31 2014-02-05 Elo Touch Solutions, Inc. Touch sensitive display with acoustic isolation
CN103576995A (zh) 2012-07-31 2014-02-12 电子触控产品解决方案公司 具有隔音装置的触敏显示器
US9563239B2 (en) 2012-09-10 2017-02-07 Apple Inc. Internal computer assembly features and methods
FR2995703B1 (fr) * 2012-09-14 2015-12-25 Commissariat Energie Atomique Systeme et procede de detection de l’actionnement d’une fonction materialisee par un trajet predetermine sur une surface tactile d’un objet
US9281727B1 (en) * 2012-11-01 2016-03-08 Amazon Technologies, Inc. User device-based control of system functionality
US9465413B2 (en) * 2012-12-10 2016-10-11 Intel Corporation Keyboard configuration for an electronic device
US9430098B2 (en) * 2012-12-17 2016-08-30 Apple Inc. Frequency sensing and magnification of portable device output
CN103076914B (zh) * 2012-12-20 2015-10-28 杜朝亮 一种基于能量分布向量比的触击位置和能量测量方法
US9128566B2 (en) * 2013-02-28 2015-09-08 Acs Co., Ltd. Acoustic pulse recognition with increased accuracy by localizing contact area of plate
US9507464B2 (en) 2013-03-15 2016-11-29 Elo Touch Solutions, Inc. Acoustic touch apparatus and methods using touch sensitive lamb waves
US9588552B2 (en) 2013-09-11 2017-03-07 Sentons Inc. Attaching electrical components using non-conductive adhesive
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
US9880671B2 (en) 2013-10-08 2018-01-30 Sentons Inc. Damping vibrational wave reflections
FR3012231B1 (fr) * 2013-10-18 2016-01-01 Univ Aix Marseille Dispositif et procede de reperage de terrain en vol pour microdrone
US9836084B2 (en) 2014-03-28 2017-12-05 Intel Corporation Inferred undocking for hybrid tablet computer
US10058031B1 (en) * 2015-02-28 2018-08-28 Hydro-Gear Limited Partnership Lawn tractor with electronic drive and control system
US9980434B1 (en) 2015-02-28 2018-05-29 Hydro-Gear Limited Partnership Network for placing a plurality of lawnmower components in operative communication
FR3035510B1 (fr) * 2015-04-21 2018-10-26 Airbus Group Sas Moyen acoustique de detection, de localisation et d'evaluation automatique d'impacts subis par une structure
US11356520B2 (en) * 2015-05-29 2022-06-07 Sound United, Llc. System and method for selecting and providing zone-specific media
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
CN105628868B (zh) * 2015-12-18 2018-08-21 北京航空航天大学 一种复合材料结构的欠采样信号冲击定位处理方法和系统
CN105527608A (zh) * 2016-01-20 2016-04-27 深圳大学 基于固体传播的声波室内定位方法
IT201600085079A1 (it) * 2016-08-12 2018-02-12 Intendime Srls Dispositivo di segnalazione per allarmi sonori e simili
FR3056780B1 (fr) 2016-09-27 2018-10-12 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif de localisation d'un impact contre une surface interactive, installations, procede et programme d'ordinateur correspondants
FR3057367B1 (fr) 2016-10-10 2018-11-09 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif de localisation d'un impact contre une surface interactive, procede et programme d'ordinateur correspondants
US10908741B2 (en) * 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
GB201708100D0 (en) * 2017-05-19 2017-07-05 Sintef Input device
FR3070080B1 (fr) 2017-08-09 2019-08-23 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede de fabrication d'un dispositif de localisation d'impact a au moins trois transducteurs fixes contre une surface interactive
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
CN108494908B (zh) * 2018-03-09 2021-07-23 Oppo广东移动通信有限公司 电子装置和制造方法
NL2023857B1 (en) * 2019-09-19 2021-05-25 Microsoft Technology Licensing Llc Systems and methods for dynamically adjusting opening force
KR102415820B1 (ko) 2019-12-09 2022-06-30 한림대학교 산학협력단 인공지능 기반 표면 인식 방법을 통한 스마트 기기 시스템의 제어 방법, 장치 및 프로그램
US11291910B2 (en) * 2020-02-14 2022-04-05 Mediatek Inc. Apparatuses and methods for providing a virtual input key
CN111721450B (zh) * 2020-06-22 2021-06-29 山东大学 一种冲击定位识别装置及方法
CN112734832B (zh) * 2021-01-22 2024-05-31 逆可网络科技有限公司 一种即时获得线上物体实际尺寸测量方法
US12166911B2 (en) 2021-03-02 2024-12-10 Apple Inc. Handheld electronic device
US20240295882A1 (en) * 2023-03-03 2024-09-05 Samsung Electronics Co., Ltd. Ultrasonic piezoelectric transceiver sensor for full surface contact localization

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US542189A (en) * 1895-07-02 Document file and record cabinet
GB238125A (en) 1924-12-30 1925-08-13 Joseph Walker Improvements in or relating to wheels and to the manufacture thereof
US4317227A (en) * 1980-06-09 1982-02-23 Zenith Radio Corporation Multi-mode automatic channel frequency synthesis system
US5059959A (en) * 1985-06-03 1991-10-22 Seven Oaks Corporation Cursor positioning method and apparatus
FR2595744A1 (fr) * 1986-03-14 1987-09-18 Colliot Georges Cle et serrure electroacoustique correspondante
US5194852A (en) * 1986-12-01 1993-03-16 More Edward S Electro-optic slate for direct entry and display and/or storage of hand-entered textual and graphic information
JP3111087B2 (ja) * 1990-09-06 2000-11-20 シャープ株式会社 信号入力装置
JPH0736142B2 (ja) * 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
US5412189A (en) * 1992-12-21 1995-05-02 International Business Machines Corporation Touch screen apparatus with tactile information
US5628031A (en) * 1993-07-19 1997-05-06 Elonex Ip Holdings Ltd. Personal digital assistant module implemented as a low-profile printed circuit assembly having a rigid substrate wherein IC devices are mounted within openings wholly between opposite plane surfaces of the rigid substrate
EP0657842B1 (en) * 1993-12-07 1999-03-10 Seiko Epson Corporation Touch panel input device and method of generating input signals for an information processing device
US5691959A (en) * 1994-04-06 1997-11-25 Fujitsu, Ltd. Stylus position digitizer using acoustic waves
JPH08263208A (ja) * 1995-02-24 1996-10-11 Whitaker Corp:The 弾性波タッチパネル及びその製造方法
US5591945A (en) * 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
GB2301217B (en) 1995-05-26 1999-12-15 Nokia Mobile Phones Ltd Display driver
FR2749938B1 (fr) * 1996-06-13 1998-08-28 Fink Mathias Procede et dispositif de detection et de localisation de source sonore reflechissante
FR2757659B1 (fr) * 1996-12-20 1999-03-26 Sextant Avionique Procede d'optimisation de la detection du point d'attouchement d'une surface tactile capacitive
US6549193B1 (en) * 1998-10-09 2003-04-15 3M Innovative Properties Company Touch panel with improved linear response and minimal border width electrode pattern
US6167165A (en) * 1998-11-25 2000-12-26 Eastman Kodak Company Method for adjusting image detail to compensate for an applied tone scale
US6225985B1 (en) * 1999-03-26 2001-05-01 Elo Touchsystems, Inc. Acoustic touchscreen constructed directly on a cathode ray tube
GB9928682D0 (en) * 1999-12-06 2000-02-02 Electrotextiles Comp Ltd Input apparatus and a method of generating control signals
WO2001048684A2 (en) 1999-12-23 2001-07-05 New Transducers Limited Contact sensitive device
US7157649B2 (en) * 1999-12-23 2007-01-02 New Transducers Limited Contact sensitive device
US6724373B1 (en) * 2000-01-05 2004-04-20 Brother International Corporation Electronic whiteboard hot zones for controlling local and remote personal computer functions
AU2001234446A1 (en) * 2000-01-11 2001-07-24 Cirque Corporation Flexible touchpad sensor grid for conforming to arcuate surfaces
US6636201B1 (en) * 2000-05-26 2003-10-21 Elo Touchsystems, Inc. Acoustic touchscreen having waveguided reflector arrays
FR2811107B1 (fr) * 2000-06-29 2002-10-18 Jean Pierre Nikolovski Plaque acoustique interactive de precision
US6555235B1 (en) * 2000-07-06 2003-04-29 3M Innovative Properties Co. Touch screen system
US6738051B2 (en) * 2001-04-06 2004-05-18 3M Innovative Properties Company Frontlit illuminated touch panel
GB0116310D0 (en) 2001-07-04 2001-08-29 New Transducers Ltd Contact sensitive device
ATE373262T1 (de) 2002-02-06 2007-09-15 Soundtouch Ltd Berührungs-pad
GB2385125A (en) 2002-02-06 2003-08-13 Soundtouch Ltd Using vibrations generated by movement along a surface to determine position
US7643015B2 (en) * 2002-05-24 2010-01-05 Massachusetts Institute Of Technology Systems and methods for tracking impacts
US7116315B2 (en) * 2003-03-14 2006-10-03 Tyco Electronics Corporation Water tolerant touch sensor
US7049960B2 (en) * 2003-12-29 2006-05-23 Lenovo (Singapore) Pte. Ltd Method and system for locating objects

Also Published As

Publication number Publication date
EP1512116A2 (fr) 2005-03-09
DK1512116T3 (da) 2009-01-05
US7345677B2 (en) 2008-03-18
US20050212777A1 (en) 2005-09-29
DE60322893D1 (de) 2008-09-25
AU2003253071A1 (en) 2003-12-31
CN100412777C (zh) 2008-08-20
CN1669048A (zh) 2005-09-14
US7511711B2 (en) 2009-03-31
CA2489326A1 (fr) 2003-12-24
KR100991955B1 (ko) 2010-11-04
WO2003107261A2 (fr) 2003-12-24
JP4249705B2 (ja) 2009-04-08
AU2003253071A8 (en) 2003-12-31
WO2003107261A3 (fr) 2004-07-01
JP2005529350A (ja) 2005-09-29
EP1512116B1 (fr) 2008-08-13
FR2841022A1 (fr) 2003-12-19
KR20050074897A (ko) 2005-07-19
EP1512116B9 (fr) 2009-03-11
FR2841022B1 (fr) 2004-08-27
ATE404912T1 (de) 2008-08-15
PT1512116E (pt) 2008-11-19
CA2489326C (fr) 2011-10-04
US20050174338A1 (en) 2005-08-11

Similar Documents

Publication Publication Date Title
ES2312810T3 (es) Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento.
CN105095887B (zh) 一种指纹识别模组及指纹识别方法、显示装置
US9280860B2 (en) Fingerprint sensors and systems incorporating fingerprint sensors
CN105683004B (zh) 使用生理数据控制车辆点火的系统和方法
JP4753877B2 (ja) マン−マシーンインタフェース方法
US11460293B2 (en) Surface quality sensing using self-mixing interferometry
US20080069412A1 (en) Contoured biometric sensor
US20070132738A1 (en) Handheld electronic device having virtual navigational input device, and associated method
KR101865371B1 (ko) 초음파를 이용한 이중 인증 장치 및 방법
JP2018534014A (ja) 超音波撮像デバイスおよび方法
JP2004089675A (ja) 本人照合装置、カード型情報記録媒体及びそれを用いた情報処理システム
US10922394B2 (en) Electronic device including fingerprint sensor and method for operating the same
JPH02158820A (ja) スタイラス及び入力システム
WO2009131987A3 (en) Method and system of identifying a user of a handheld device
DE60138533D1 (de) Piezoelektrisches biometrisches identifikationsgerät und dessen anwendung
US20050249387A1 (en) Finger-based identification systems and methods
KR101923154B1 (ko) 정전용량방식 지문센서를 구비한 디지털 도어록
CN115162854A (zh) 一种手指锁和解锁方法
KR20140144667A (ko) 인디케이터용 지문센서 모듈
JPH0731323Y2 (ja) 指紋認識装置用指置き台
CN108683503B (zh) 一种基于声波的动态身份识别认证方法
TW201931197A (zh) 電子系統及操作方法
CN108038949A (zh) 门禁系统、门禁机器人及其操作方法
KR20220079778A (ko) 표시 장치 및 그의 구동 방법
CA2571051A1 (en) Handheld electronic device having virtual navigational input device, and associated method