ES2312810T3 - Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. - Google Patents
Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. Download PDFInfo
- Publication number
- ES2312810T3 ES2312810T3 ES03760020T ES03760020T ES2312810T3 ES 2312810 T3 ES2312810 T3 ES 2312810T3 ES 03760020 T ES03760020 T ES 03760020T ES 03760020 T ES03760020 T ES 03760020T ES 2312810 T3 ES2312810 T3 ES 2312810T3
- Authority
- ES
- Spain
- Prior art keywords
- signal
- impact
- omega
- captured
- active
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/043—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/043—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
- G06F3/0433—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Road Signs Or Road Markings (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
- Golf Clubs (AREA)
- Refuse Collection And Transfer (AREA)
- Apparatuses And Processes For Manufacturing Resistors (AREA)
Abstract
Procedimiento en el cual se localiza un impacto en una superficie (9, 15, 17, 22) que pertenece a un objeto (5, 3, 16, 18) formando interfaz acústica, dotado de al menos un sensor acústico (6), procedimiento en el cual se capta al menos una señal a partir de ondas acústicas generadas en el objeto formando interfaz acústica (5, 3, 16, 18) por dicho impacto y se localiza el impacto por tratamiento de dicha señal captada, caracterizado porque consta de una etapa de reconocimiento en el curso de la cual se compara la señal captada con al menos una señal predeterminada correspondiendo a la señal captada cuando se genera un impacto en al menos una zona activa (10) perteneciendo a la superficie del objeto formando interfaz acústica (5, 3, 16, 18), y se asocia el impacto a dicha zona activa (10) si la señal captada está suficientemente cerca de dicha señal predeterminada.
Description
Procedimiento para localizar un impacto sobre
una superficie y dispositivo para la puesta en práctica de este
procedimiento.
La presente invención hace referencia a los
procedimientos para localizar un impacto sobre una superficie y a
los dispositivos para la puesta en práctica de dichos
procedimientos.
Más particularmente, la invención se refiere a
un procedimiento en el cual se localiza un impacto sobre una
superficie que pertenece a un objeto formando interfaz acústica,
dotado al menos de un sensor acústico (el objeto formando interfaz
acústica puede estar constituido de una sola pieza o de varios
elementos, ensamblados o al menos en contacto mutuo), en cuyo
procedimiento se capta al menos una señal a partir de ondas
acústicas generadas en el objeto que forman interfaz acústica por
el mencionado impacto y se localiza el impacto por procesamiento de
dicha señal captada.
El documento
FR-A-2811107 describe un ejemplo de
un procedimiento semejante que se aplica particularmente a un
cristal. En este procedimiento conocido se calcula la posición del
impacto sobre la superficie del objeto midiendo las diferencias de
tiempo de vuelo de las ondas acústicas hasta diferentes
sensores.
Este procedimiento conocido requiere sin
embargo:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
Se deduce que este procedimiento conocido es
particularmente costoso para poner en práctica y no se puede
aplicar a cualquiera de los objetos preexistentes, especialmente
objetos heterogéneos constituidos por conjuntos de piezas, objetos
de forma irregular, etc.
La presente invención tiene particularmente como
fin paliar estos inconvenientes.
A este efecto, según la invención, un
procedimiento del tipo mencionado se caracteriza en que consta de
una etapa de reconocimiento en el curso de la cual se compara la
señal captada con al menos una señal predeterminada que corresponde
a la señal que es captada cuando se genera un impacto sobre al menos
una zona activa que pertenezca a la superficie del objeto formando
interfaz acústica (esta comparación, que puede hacerse tanto en el
dominio temporal como en el dominio frecuencial, puede
eventualmente efectuarse únicamente sobre una parte de la señal
captada o sobre datos extraídos de la señal captada después de ser
procesada, en cualquier caso dicha señal predeterminada puede ser
reducida a la parte sobre la cual se hace la comparación o a los
datos sobre los cuales se hace la comparación) y se asocia el
impacto a dicha zona activa si la señal captada está suficientemente
cerca de dicha señal predeterminada.
Gracias a estas disposiciones, se obtiene un
procedimiento de posicionamiento de impacto que es robusto,
adaptable a todos los objetos (incluidos los objetos heterogéneos
constituidos por conjuntos de varias piezas o por puesta en
contacto de varias piezas), fácil y poco costoso para poner en
práctica.
En los modos de realización preferentes de la
invención, se puede recurrir eventualmente además a una y/u otra de
las disposiciones siguientes:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
D(i)=Max((C_{i}(t)),
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
\newpage
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- -
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- \bullet
-
\vtcortauna
- -
-
\vtcortauna
\vskip1.000000\baselineskip
Por otro lado, la invención tiene igualmente por
objeto un dispositivo especialmente adaptado para poner en práctica
un procedimiento de conexión en cascada tal como se define en lo
anterior.
Otras características y ventajas de la presente
invención aparecerán en el curso de la descripción siguiente de
cinco de sus formas de realización, a título de ejemplos no
limitativos, con referencia a los dibujos adjuntos.
En los dibujos:
- la figura 1 es una vista esquemática en
perspectiva mostrando un ejemplo de dispositivo que comprende una
interfaz acústica adaptada para poner en práctica un procedimiento
según una primera forma de realización de la invención,
- la figura 2 es un diagrama de bloques del
dispositivo de la figura 1,
- la figura 3 representa un grafo que ilustra un
ejemplo de método que permite asociar un impacto en la superficie
de la interfaz acústica visible en la figura 1, con una zona activa
de esta superficie,
- la figura 4 representa esquemáticamente una
interfaz acústica utilizable en un dispositivo de puesta en práctica
de un procedimiento según una segunda forma de realización de la
invención,
- la figura 5 es un diagrama de bloques de un
ejemplo de dispositivo que puede utilizar la interfaz de entrada de
la figura 4,
- y las figuras 6 a 9 representan
esquemáticamente interfaces acústicas utilizables en un dispositivo
de puesta en práctica de un procedimiento según la tercera, cuarta
y quinta formas de realización de la invención.
En las diferentes figuras, las mismas
referencias designan elementos idénticos o similares.
La figura 1 representa un dispositivo (1)
destinado a poner en práctica la presente invención, que comprende,
por ejemplo:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
\vskip1.000000\baselineskip
La interfaz de entrada acústica (4) consta de un
objeto sólido (5), constituido en este caso por una mesa en la cual
se hace propagar unas ondas acústicas generando unos impactos en la
superficie (9), como se explicará a continuación.
Se debe observar, sin embargo, que el objeto
formando interfaz acústica podría estar constituido por cualquier
otro objeto, homogéneo o heterogéneo, constituido de una sola pieza
o de varias piezas ensambladas o simplemente en contacto mutuo, tal
como: cristal, puerta, ventana, marco portátil ("tablette
portative"), pantalla de ordenador, tablón de anuncios, terminal
interactivo, juguete, tablero de mandos de vehículo, parte trasera
de respaldo de asiento delantero de vehículo automóvil o de asiento
de avión, pared, suelo, parachoques de vehículo (siendo entonces la
posición de un impacto en el parachoques la información transmitida
por la interfaz acústica), etc.
Al menos un sensor acústico (6) (un solo sensor
-6- en el ejemplo representado) está fijado al objeto (5), estando
dicho sensor acústico (6) conectado por ejemplo a la entrada de un
micrófono (7) de la unidad central (2), a través de una cable (8) o
a través de cualquier otro medio de transmisión (radio, infrarrojos
u otro), de manera que capte dichas ondas acústicas y las transmita
a la unidad central (2).
El sensor acústico (6) puede ser por ejemplo un
sensor piezoeléctrico, u otro (por ejemplo, un sensor capacitivo,
un sensor magnetoestrictivo, un sensor electromagnético, un
velocímetro acústico, un sensor óptico [interferómetro láser,
vibrómetro láser, ...], etc.). Puede estar adaptado para medir por
ejemplo las amplitudes de los desplazamientos debidos a la
propagación de las ondas sonoras en el objeto (5) formando interfaz
acústica, o incluso la velocidad o la aceleración de dichos
desplazamientos, o bien incluso puede tratarse de un sensor de
presión para medir las variaciones de presión debidas a la
propagación de ondas acústicas en el objeto (5).
En la superficie externa (9) del objeto (5) (en
este caso en la cara superior de la mesa que constituye dicho
objeto -5- en el ejemplo que representa la figura 1), se definen
varias zonas activas (10), que pueden estar delimitadas por
ejemplo:
- -
-
\vtcortauna
- -
-
\vtcortauna
\vskip1.000000\baselineskip
La superficie (9) podría comprender también
partes en las cuales se impediría generar un impacto por ejemplo
recubriéndolas de un material flexible o simplemente inaccesible por
el usuario, particularmente para una mejor fiabilidad del
sistema.
Las diferentes zonas activas (10) pueden ser
simplemente partes de la superficie (9), idénticas al resto de la
superficie (9). Sin embargo estas zonas activas se diferencian las
unas de las otras y del resto de la superficie (9), en la medida en
la que un impacto en una de las zonas (10) genera una señal acústica
diferente de la señal generada por un impacto en otra de las zonas
activas (10) o en otra parte de la superficie (9).
Cada una de las zonas activas (10) se asocia a
una información predeterminada que un usuario puede querer
comunicar a la unidad central (2). La información en cuestión puede
por ejemplo ser un comando, un número, un carácter, una posición en
la superficie (9), o cualquier otra información que pueda ser
transmitida habitualmente a un dispositivo electrónico tal como un
microordenador (o a la unidad central de otro aparato electrónico)
por medio de interfaces de entrada clásicas tales como teclados,
botones de comando, ratones u otros.
Las informaciones en cuestión pueden estar
indicadas eventualmente con claridad por unas marcas (10a) en la
superficie (9) (igual que para las referencias de las zonas -10-,
estas marcas pueden estar fijadas físicamente en la superficie -9-
de manera definitiva o amovible, o incluso pueden estar proyectadas
bajo la forma de imágenes luminosas en dicha superficie -9-).
Según una variante, la superficie (9) del objeto
(5) puede comprender simplemente unas referencias (fijadas
físicamente o luminosas) permitiendo distinguir las zonas activas
las unas de las otras. Estas referencias pueden ser, por ejemplo,
unos números o unos colores, y su significado puede ser recordado
eventualmente mediante una visualización generada por la unidad
central (2) en la pantalla (3).
\newpage
\global\parskip0.900000\baselineskip
Eventualmente, la superficie (9) puede también
no comprender ninguna marca, ni para delimitar las zonas activas,
ni para identificar las informaciones a las cuales se corresponden,
en cuyo caso las zonas activas (10) sólo serían conocidas por los
usuarios autorizados del dispositivo (1).
Se debe observar que las informaciones
predeterminadas asociadas a cada zona activa (10) pueden o bien ser
siempre las mismas, o bien variar en función del desarrollo de un
programa en la unidad central (2), o bien depender aún de
accionamientos anteriores de otras zonas activas (10) (ciertas zonas
activas -10- pueden ser accionadas por ejemplo para cambiar la
función atribuida a una o varias zonas activas accionadas después de
ésta, de manera, por ejemplo, que acceda a funciones específicas, a
caracteres especiales, o incluso para poner letras en mayúsculas,
etc.).
Las diferentes zonas activas (10) del objeto (5)
constituyen pues un verdadero teclado virtual que se acciona
tocando en las zonas activas, indistintamente con la uña de un dedo,
con el extremo de los dedos, con un objeto tal como un bolígrafo,
estilete u otro.
Se debe observar que la superficie (9) del
objeto (5) podría en caso deseado constar de una sola zona activa
(10) en los casos más sencillos, no extendiéndose sin embargo dicha
zona activa (10) en el conjunto de la superficie (9) y
constituyendo preferentemente una parte reducida de dicha superficie
(9).
Tal como se ha representado en la figura 2, el
sensor (6) (SENS.) puede estar conectado clásicamente por medio de
la entrada (7) a un amplificador (11) él mismo conectado a un
convertidor analógico-digital (12) (A/D) que
transmite las señales recibidas al procesador (13) de la unidad
central (2) (CPU) cuyo procesador está conectado él mismo a una o
varias memorias (14) (MEM.) y hace funcionar la pantalla (3) antes
mencionada (SCR.) o cualquier otra interfaz de salida que reenvíe
informaciones hacia el usuario.
Se debe observar que la interfaz acústica (4)
podría servir de interfaz de entrada de informaciones hacia otros
dispositivos electrónicos que no sean un microordenador, por ejemplo
un aparato electrónico doméstico o profesional, una cerradura
electrónica por marcación numérica, una unidad central electrónica
de vehículo, etc. En todos los casos, las señales eléctricas
generadas por el o los sensores (6) pueden ser tratadas o bien en
dicho aparato electrónico, o bien en un dispositivo numérico externo
de procesamiento de señal (DSP).
Durante la utilización del dispositivo (1)
descrito anteriormente, cuando un usuario genera un impacto en la
superficie (9) del objeto (5), dicho impacto engendra una onda
acústica que se propaga por el objeto (5) hasta el sensor acústico
(6). El sensor acústico (6) genera entonces una señal eléctrica
S(t) que, después de su digitalización, es tratada por el
procesador (13) (o por otro procesador dedicado, interno o externo
a la unidad central -2-).
El procesador (13) compara a continuación la
señal recibida con diferentes señales predeterminadas pertenecientes
a una biblioteca de señales memorizadas previamente en la memoria
(14), correspondiéndose dichas señales predeterminadas
respectivamente a impactos generados en las diferentes zonas activas
(10) del objeto (5).
Esta comparación permite saber si la señal
acústica proviene de una de las zonas activas (10) y la cual,
cualquiera que sea la forma de excitación de dicha superficie
activa (impacto de una uña, de una extremidad de dedo, de una palma
de mano, de un objeto tal como un bolígrafo o un estilete,
etc.).
Las señales predeterminadas de la biblioteca de
señales pueden haber sido determinadas en el curso de una fase de
aprendizaje inicial en la cual se generan impactos sucesivamente en
todas las zonas activas (10) del objeto (5), registrando las
señales correspondientes (preferentemente después de su
normalización, por ejemplo para que la energía de cada señal de
referencia sea igual a 1) recibidas en la unidad central (2) por
medio del sensor acústico (6).
Según una variante, cuando el objeto (5) tiene
una forma geométrica simple y/o repetitiva, es posible que las
señales predeterminadas de la biblioteca de señales se obtengan por
modelado o se determinen experimentalmente una sola vez para todos
los objetos (5) de una serie de objetos idénticos: en estos dos
casos, no habría pues fase previa de aprendizaje para el objeto (5)
en particular conectado a la unidad central (2), sino simplemente
instalación de la biblioteca de señales en la memoria (14) de dicha
unidad central.
Se debe observar que en algunos casos
(particularmente si el objeto (5) es de madera), se pueden hacer
variar las señales predeterminadas de la biblioteca de señales en
función de las condiciones ambientales, particularmente la
temperatura y la humedad. Estas variaciones pueden ser calculadas o
bien ser resultado de una nueva fase de aprendizaje.
La comparación de las señales recibidas durante
la utilización del dispositivo (1), con las señales predeterminadas
de la biblioteca de señales, puede llevarse a cabo:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
\global\parskip1.000000\baselineskip
\newpage
La comparación de las señales captadas con las
señales predeterminadas de la biblioteca de señales puede llevarse
a cabo por cualquier medio conocido, particularmente:
- -
- mediante intercorrelación,
- -
- mediante procedimientos conocidos de reconocimiento vocal, de reconocimiento de señales o de reconocimiento de forma,
- -
- mediante utilización de redes neuronales u otras.
\vskip1.000000\baselineskip
A título de ejemplo más preciso, para reconocer
la zona activa (10) de donde viene la señal captada S(t), se
puede utilizar particularmente el procedimiento siguiente:
- (1)
- Después de normalizar la señal captada S(t) (por ejemplo, se calibra S(t) para que su energía sea igual a 1), se procede a una intercorrelación de la señal S(t) generada por el sensor (6) con las n señales predeterminadas de la biblioteca también normalizadas, anotadas Ri(t) con i=1..n. Se obtienen así funciones Ci(t), que son los resultados temporales del producto de intercorrelación de la señal S(t) respectivamente con las señales Ri(t) de la biblioteca. A partir de estos cálculos, se determina una zona activa potencialmente activada j correspondiente al resultado de intercorrelación Cj(t) que tiene un máximo de amplitud más elevado que los de los otros resultados Ci(t).
- (2)
- Se determina igualmente la distribución D(i) de los máximos de amplitud de los resultados de intercorrelación:
D(i)=Max((Ci(t)) con
i=1..n.
- (3)
- Se calcula una segunda función de distribución D'(i) obtenida de manera idéntica al cálculo de la función D(i) pero reemplazando S(t) por Rj(t).
- (4)
- Se procede a una intercorrelación de las distribuciones de los máximos de amplitudes D(i) y D'(i). Si la amplitud máxima E del resultado de intercorrelación entre D(i) y D'(i) es suficiente, entonces j es el número considerado de la zona activada. Sino, la señal generada por el sensor corresponde a una falsa alarma.
\vskip1.000000\baselineskip
En el curso de esta etapa (4), se puede
simplemente calcular E y el valor máximo de D(i), sea
Max(D(i)): si se consideran estos dos valores como
las coordenadas de un punto en un espacio bidimensional de ejes
x=Max(D(i)) e y=E, como se ha representado en la
figura 3, se puede determinar de antemano (empíricamente o por
cálculo) una curva umbral L que delimita un dominio D
correspondiente a los puntos validados (este dominio se termina y
está limitado en x=1 e y=1, valores máximos absolutos de D(i)
y E). En cuanto a las señales captadas que dan puntos fuera del
dominio D, son eliminadas por ser falsas alarmas.
En el ejemplo considerado, la línea D es una
recta que puede pasar, por ejemplo, por los puntos (S1, 0) y (0,
S2). Por ejemplo, S1=0,4 y S2=0,4 u 0,6.
Se debe observar que además de identificar la
zona activa (10) de donde proviene el impacto, es posible medir la
fuerza del impacto, por ejemplo para guiar al usuario en su manera
de utilizar la interfaz acústica, o incluso para modular la acción
provocada por un impacto en una zona activa (10), según la
intensidad de dicho impacto.
Se debe observar por otro lado que el
reconocimiento de señales que provienen de zonas activas (10) puede
llevarse a cabo eventualmente utilizando únicamente una parte de las
señales S(t) recibidas o una parte de su espectro de
frecuencia o más generalmente una parte de sus características. En
este caso, en el curso de la etapa de reconocimiento, se trata la
señal captada para extraer de ella datos representativos de ciertas
características de la señal captada y se comparan así los datos
extraídos con los datos de referencia extraídos de la señal captada
cuando se genera un impacto en cada zona activa.
De este modo, es posible por ejemplo medir la
amplitud y la fase de la señal para m frecuencias predeterminadas
(siendo m un entero natural al menos igual a 1) y comparar estas
amplitudes medidas a1-am y estas fases medidas
p1-pn con las amplitudes Ai1-Aim y
las fases Pi1-Pim medidas a dichas frecuencias
predeterminadas a partir de las señales recibidas en el curso de la
fase de aprendizaje (o determinadas por modelado) para las
diferentes zonas activas (10) de número i (estando i comprendido
entre 1 y n, donde n es el número de zonas activas -10-).
Según una variante, es posible determinar un
código a partir de dichos datos extraídos de la señal captada y
comparar este código con una tabla que relaciona al menos ciertos
códigos con cada zona activa (los códigos contenidos en esta tabla
representan en este caso las señales predeterminadas de la
biblioteca de señales mencionada anterior-
mente).
mente).
A título de ejemplo no limitativo, se puede
determinar un código de 16 bits a partir de la señal captada
S(t), de la forma siguiente:
- los 8 primeros bits del código se determinan a
partir del espectro de frecuencia de la señal S(t) que se
subdivide en 8 porciones frecuenciales predeterminadas
[f_{k},f_{k+1}], k=1..8: el bit de rango k es igual a 1 por
ejemplo si el valor final de energía dado por el espectro a la
frecuencia f_{k+1} es superior al valor medio de energía de la
onda acústica en la porción de frecuencia [f_{k},f_{k+1}] y este
bit vale 0 en el caso contrario;
- los 8 últimos bits del código se determinan a
partir de la señal temporal S(t) que se subdivide en 9
porciones temporales predeterminadas [t_{k},t_{k+1}], k=1..9:
el bit de rango k+8 es igual a 1 por ejemplo si el valor medio de
la potencia de la señal durante el intervalo de tiempo
[t_{k},t_{k+1}] es superior al valor medio de la potencia de la
señal durante el intervalo de tiempo [t_{k+1},t_{k+2}] para
k=1..8 y este bit vale 0 en el caso contrario.
\vskip1.000000\baselineskip
En este ejemplo particular, los códigos de la
tabla de correspondencia se determinan durante la fase de
aprendizaje, calculando igual que lo indicado anteriormente los
códigos que corresponden a las señales captadas por el sensor
acústico (6) cuando se generan impactos en las diferentes zonas
activas (10).
Por otro lado, como se representa en las figuras
4 y 5, es posible utilizar dos sensores acústicos (6) (SENS. 1 y
SENS. 2), en particular cuando el objeto (5) presenta unas simetrías
tales que pueda existir un riesgo de confusión entre las señales
que provienen de dos zonas activas (10) diferentes. En caso deseado,
se podrían utilizar más de dos sensores acústicos (6), aunque las
soluciones preferentes recurran a uno o dos sensores (6).
Cuando se utilizan dos sensores o más, dos
opciones son posibles:
- (1)
- mezcla de las señales de los diferentes sensores y tratamiento de la señal global siguiendo el procedimiento descrito anteriormente.
- (2)
- o, de manera preferente, tratamiento individual de las señales de los diferentes sensores según el procedimiento descrito anteriormente y comprobación de los resultados:
- -
-
\vtcortauna
- -
-
\vtcortauna
\vskip1.000000\baselineskip
Se debe observar que los dos sensores acústicos
pueden ser de diferentes tipos y/o captar magnitudes diferentes y/o
sus señales pueden ser tratadas diferentemente para identificar las
zonas activas (10) que reciben impactos. Por ejemplo, uno de los
sensores acústicos puede servir parar registrar la señal S(t)
recibida, mientras que el otro puede servir únicamente para
determinar un desfase temporal en la llegada de la onda acústica a
los dos sensores.
El segundo sensor podría por otro lado no captar
la onda acústica propagada en el objeto sólido (5), sino la onda
acústica propagada en el aire en el momento del impacto.
Como se representa en la figura 6, el objeto
formando interfaz acústica puede estar constituido por una pantalla
de ordenador (3) o una pantalla de televisión en la cual se fija el
sensor (6). La superficie que recibe los impactos puede ser
ventajosamente el cristal (15) de la pantalla, lo que puede permitir
particularmente fijar en la pantalla (3) la delimitación de las
zonas activas (10) y su significado. Esta variante sería utilizable
por ejemplo para programar un magnetoscopio, en particular en el
caso en el que la pantalla (3) sea una pantalla de televisión (la
unidad central (2) sería entonces reemplazada por el
magnetoscopio).
Como se representa en la figura 7, el objeto
formando interfaz acústica puede estar constituido igualmente por
una puerta acristalada (16) o similar. En el ejemplo representado en
la figura 7, la superficie (17) que incorpora las zonas activas
(10) está constituida por la superficie acristalada de la puerta, y
todavía en el ejemplo particular representado en esta figura, el
sensor acústico (6) está fijado en una parte de madera de la puerta
(16).
En el ejemplo representado en la figura 8, el
objeto formando interfaz acústica es una tabla (18) concebida
específicamente para servir de interfaz acústica. Esta tableta puede
por ejemplo comprender un marco rígido (19) solidario de un fondo
(20) igualmente rígido que lleva el captador acústico (6).
Una membrana flexible (22), realizada por
ejemplo de elastómero, está tendida en el marco (19) a una pequeña
distancia por encima del fondo (21). Esta membrana flexible (22)
está provista de picos rígidos sobre su cara inferior (puede
tratarse por ejemplo de dos semiesferas de vidrio que están pegadas
bajo la membrana -22-). De este modo, cuando un usuario establece
contacto con la membrana (22) y en particular con una zona activa
(10) soportada por esta membrana, esta acción genera un impacto de
al menos un pico (23) en el fondo (21) del marco de la tableta
(18). Esta variante presenta la ventaja de producir impactos
relativamente poco dependientes de la manera en la que el usuario
establece contacto con la membrana (22) (con el dedo o la uña o una
herramienta, con más o menos fuerza,
etc.).
etc.).
En los modos de realización de las figuras 6 a
8, el procedimiento puesto en práctica puede ser idéntico o similar
al descrito anteriormente y puede permitir que un impacto generado
en la superficie del objeto formando interfaz acústica coincida o
bien con una zona activa (10), o bien con ninguna zona activa.
Pero también es posible, en todos los modos de
realización de la invención recurriendo a diversas superficies
activas (eventualmente puntuales), determinar la posición del
impacto en la superficie (9) del objeto (5) formando interfaz
acústica (ver el ejemplo de la figura 9) incluso cuando este impacto
no está en una de las zonas activas. Se obtiene entonces una
interfaz acústica continua o seudocontinua (permitiendo un
funcionamiento similar por ejemplo a un ratón de ordenador, a un
lápiz óptico, a una pantalla táctil o similares).
En este caso, en el curso de la etapa de
reconocimiento:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
\vskip1.000000\baselineskip
En el curso de esta última etapa, se puede
determinar ventajosamente la posición del impacto en la superficie
de manera que los valores de similitud atribuidos a las zonas
activas de referencia, correspondan lo mejor posible a valores de
similitud teóricos calculados para dichas zonas de referencia para
un impacto generado en dicha posición en la superficie.
Estos valores de similitud teóricos pueden ser
particularmente funciones de la posición del impacto en la
superficie, determinadas de antemano para cada conjunto posible de
zonas activas de referencia.
Las funciones en cuestión pueden ser
determinadas durante la etapa de aprendizaje, por ejemplo ajustando
una función tipo en los valores de similitud de las zonas activas
entre ellas. La función tipo en cuestión puede depender de la forma
del objeto y ser determinada de antemano, o bien de forma teórica, o
bien experimentalmente.
Para coger un ejemplo concreto, la función de
similitud teórica Rth(X,Y) entre dos puntos X, Y de la
superficie (9) puede corresponder al máximo de la función de
intercorrelación entre las señales Sx(t) y Sy(t)
captadas por el sensor (6) respectivamente cuando unos impactos son
generados en estos dos puntos X, Y, y esta función puede ser por
ejemplo del tipo Rth(X,
Y)=(sen(a(\beta).d))/(a(\beta).d),
aproximada por ejemplo por Rth(X,
Y)=1-[a(\beta).d]^{2}/6,
donde:
donde:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
a(\beta)=a1.cos(\beta+\beta0)+a2.sen((\beta+\beta0),
donde \beta0 es un ángulo
representativo de la orientación de la
elipse.
\vskip1.000000\baselineskip
Se puede determinar la función Rth para cada
conjunto posible de zonas activas de referencias
R1-R4, a partir de las señales predeterminadas
Ri(t) de la biblioteca de señales, captadas durante la
generación de impactos respectivamente en esas zonas activas de
referencia en el curso de la fase de aprendizaje.
\newpage
A este efecto, para un conjunto dado de cuatro
zonas de referencia R1-R4, se puede calcular el
máximo de la función de intercorrelación de la señal R1(t)
correspondiente a R1, con cada una de las señales R2(t),
R3(t), R4(t) correspondientes a las zonas
R2-R4. Se deducen valores de a1, a2 y \beta0. Se
puede proceder a continuación del mismo modo a partir de las zonas
de referencia R2, R3 y R4, lo que da a cada vez valores de a1, a2 y
\beta0, y a continuación coger la media de los cuatro valores
encontrados de este modo respectivamente para a1, a2 y \beta0:
estos valores medios determinan entonces la función Rth para el
conjunto de zonas de referencia R1-R4. Según una
variante, la función Rth podría ser determinada por un proceso
iterativo de optimización (del tipo método de los mínimos
cuadrados) para minimizar una función de error entre la función de
similitud teórica y los máximos de las funciones de
intercorrelación entre las señales R1(t), R2(t),
R3(t) y R4(t) cogidas dos a dos.
Una vez determinadas las funciones de similitud
teóricas Rth mencionadas anteriormente, cuando se procura
determinar la posición de un impacto I entre cuatro zonas activas
adyacentes R1-R4 (ventajosamente puntuales), se
puede determinar dicha posición mediante un proceso iterativo de
optimización minimizando una función de error entre los valores
D(i) definidos anteriormente
(D(i)=Max(Ci(t)), siendo i en este caso el
número de la zona activa de referencia Ri considerada) y los
valores de similitud teórica Rth(I, Ri). Por ejemplo, se
puede minimizar una función de error E igual a la suma de los
valores (D(i)-Rth(I, Ri))^{2}.
Se debe comprender que el procedimiento que se
ha descrito no se limita a los ejemplos que se han descrito;
existen numerosas aplicaciones, entre las cuales:
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
- -
-
\vtcortauna
\vskip1.000000\baselineskip
Se debe observar por otro lado que la interfaz
de entrada (4) descrita anteriormente podría estar dotada de medios
de tratamiento, permitiéndole efectuar localmente el reconocimiento
de señales acústicas S(t) procedentes de zonas activas (10),
enviando la interfaz de entrada (4) de este modo únicamente señales
codificadas directamente a la unidad central (2), o a cualquier
otro dispositivo electrónico, indicando directamente la zona activa
(10) que ha sido tocada por el usuario y en caso deseado
informaciones relacionadas con el impacto: fuerza del impacto y
naturaleza del impacto.
Se debe observar que el procedimiento según la
invención no requiere que el objeto (5) presente una estructura
homogénea o predeterminada, o bien realizada con un cuidado
particular, o bien realizada con dimensiones muy precisas, o con
estados de superficie específicos. Bien al contrario, cuanto más
heterogéneo y/o irregular es el objeto (5), más diferentes las unas
de las otras serán las señales acústicas emitidas por las diferentes
zonas activas (10) y mejor será el reconocimiento de las señales
acústicas. Se puede incluso en algunos casos crear voluntariamente
heterogeneidades tales como cavidades u otros en el objeto (5) para
facilitar el reconocimiento de las señales acústicas procedentes de
las zonas activas (10).
Por otro lado, cuando se determinan las señales
predeterminadas de la biblioteca de señales en el curso de una fase
de aprendizaje, se puede utilizar un sensor piezoeléctrico conectado
por todos los medios conocidos a la unidad central (2) y fijado o
bien en el dedo del usuario, o bien en el objeto (estilete u otro)
utilizado para generar impactos en las zonas activas del objeto
(5). En este caso, la señal de impulsión generada por el sensor
piezoeléctrico en el momento del impacto se puede utilizar para
iniciar la adquisición de la señal acústica predeterminada
destinada a alimentar la biblioteca de señales, y/o para medir la
intensidad del impacto, pudiendo ser utilizada dicha medida de
intensidad para invalidar por ejemplo ciertas adquisiciones de
señales predeterminadas particularmente cuando la intensidad es
inferior a un umbral predeterminado o cuando dicha intensidad no
está comprendida dentro de un intervalo predefinido.
Por otro lado, cuando se determinan las señales
predeterminadas de la biblioteca de señales en el curso de una fase
de aprendizaje, puede ser ventajoso no retener más que las señales
acústicas captadas cuya amplitud es superior a un primer umbral de
referencia relativamente elevado. En este caso, durante el
funcionamiento normal del dispositivo, se puede a continuación
tener en cuenta las señales acústicas cuya amplitud supere un
segundo umbral predeterminado claramente inferior al primer umbral.
De este modo el primer umbral predeterminado puede ser igual a
varias veces (al menos dos o tres veces) el valor medio temporal de
la amplitud absoluta del ruido ambiental, medido por ejemplo
durante algunos segundos, mientras que el segundo umbral
predeterminado puede por ejemplo ser igual a 1,5 veces dicho valor
medio. De esta manera, no se registran más que señales de
referencia de buena calidad durante la fase de aprendizaje, aunque
conservando una gran sensibilidad del dispositivo durante su
funcionamiento
normal.
normal.
En caso deseado, la unidad central (2) puede
estar dotada de un teclado auxiliar de programación (no
representado) que puede ser utilizado particularmente durante la
fase de aprendizaje, para indicar por ejemplo qué tipo de señal se
genera. El tipo de señal generada puede particularmente ser una de
los tipos siguientes:
- -
- nueva señal en sustitución de una de las señales de referencia de la biblioteca de señales (se puede de este modo comunicar la identificación de la señal de referencia sustituida a la unidad central (2) por medio del teclado auxiliar),
- -
- nueva señal de referencia (o bien para una biblioteca de referencia preexistente pero incompleta, o bien para una nueva biblioteca de referencia correspondiendo particularmente a nuevas condiciones de temperatura, de humedad o de estado del objeto -5-),
- -
- nueva señal destinada a verificar una señal de referencia ya existente en una biblioteca de señales.
\vskip1.000000\baselineskip
Por otro lado, cuando se determinan las señales
predeterminadas de la biblioteca de señales en el curso de una fase
de aprendizaje, se puede prever en caso deseado no validar más que
las señales de referencia de dicha biblioteca más que en el momento
en que éstas se confirman por generación de uno o varios impactos en
la misma zona, en un lapso de tiempo predeterminado según la
generación de un primer impacto.
Cuando se determinan las señales predeterminadas
de la biblioteca de señales en el curso de una fase de aprendizaje,
los impactos generados en el objeto (5) en el curso de dicha fase de
aprendizaje pueden ser generados:
- -
- o bien con un objeto duro tal como un estilete, en cuyo caso el mismo estilete se utilizará preferentemente durante el funcionamiento normal del dispositivo,
- -
- o bien con un objeto más amortiguador tal como, por ejemplo, una goma plástica dura fijada en el extremo de un bolígrafo o similar (los inventores han podido así obtener buenos resultados con una goma plástica dura para transparentes de marca "Staedler"), en cuyo caso se pueden generar los impactos en el objeto (5) igual de bien con objetos relativamente duros que con objetos menos duros (uña del dedo, pulpa del dedo u otro) durante el funcionamiento normal del dispositivo.
\vskip1.000000\baselineskip
Por otro lado, según una variante del
procedimiento descrito anteriormente para reconocer la zona activa
(10) de donde viene la señal captada S(t), se puede utilizar
el procedimiento siguiente:
- (1)
- durante la fase de aprendizaje, se calcula la transformada de Fourier R_{i}(\omega) de cada señal acústica R_{i}(t) generada por un impacto en la zona activa i, donde i es un índice comprendido entre 1 y n:
R_{i}(\omega)=|R_{i}(\omega)|.e^{j
\varphi
i(\omega)}
- No se conserva de esta transformada de Fourier más que la componente de fase, en las únicas bandas de frecuencia \omega donde la amplitud del espectro es superior a un umbral predeterminado.
- La forma frecuencial de la señal de referencia conservada se expresa pues bajo la forma R'_{i}(\omega)=e^{j \varphi i(\omega)} para las frecuencias \omega en las cuales |R_{i}(\omega)| es superior a un umbral predeterminado, y R'_{i}(\omega)=0 en otras frecuencias \omega.
- El umbral predeterminado en cuestión puede ser igual por ejemplo al máximo de MAX/D y de |B(\omega)|, donde:
- -
- MAX puede ser o bien el valor máximo de |R_{i}(\omega)|, o bien el valor máximo de los módulos |R_{i}(\omega)| normalizados cada uno en energía, o bien el valor máximo de la envolvente de la media de los módulos |R_{i}(\omega)| normalizados cada uno en energía,
- -
- D es una constante, por ejemplo igual a 100,
- -
- |B(\omega)| es la media de varios espectros de ruido en el objeto (5), adquiridos en diferentes instantes.
- (2)
- Durante el funcionamiento normal del dispositivo, cada señal captada S(t) recibe el mismo tratamiento que en la etapa anterior (1), de manera que se obtiene una señal S'(\omega)=e^{j \phi (\omega)} para las frecuencias \omega en las cuales |S(\omega)| es superior a un umbral predeterminado mencionado anteriormente, siendo S'(\omega) igual a 0 en las otras frecuencias.
- (3)
- Se calcula a continuación un producto P_{i}(\omega) igual a S'(\omega) multiplicado por el conjugado de R'(\omega) para i=1 ...n.
- (4)
- Se normalizan los productos P_{i}(\omega) dividiéndolos por sus integrales.
- (5)
- Se realiza a continuación la transformada de Fourier inversa de todos los productos P_{i}(\omega), y se obtienen funciones temporales X_{i}(t).
\vskip1.000000\baselineskip
Según las diferentes funciones
X_{i}(t), y particularmente según su máximo, se puede
entonces atribuir la señal S(t) a una de las zonas activas
(10). A título de ejemplo, se puede calcular el valor máximo (en
valor relativo o en valor absoluto), de las diferentes funciones
X_{i}(t), y atribuir la señal S(t) a la zona activa
i que corresponda a la función X_{i}(t) presentando el
máximo más grande. Eventualmente, se puede comparar igualmente el
máximo de la función X_{i}(t) retenida con un umbral
definido de antemano, por ejemplo igual a 0,6 y decidir que la
señal S(t) debe ser atribuida a la zona i cuando el máximo de
X_{i}(t) es superior a dicho umbral (si varias funciones
X_{i}(t) tienen un máximo superior a 0,6, no se conserva
entonces más que la función X_{i}(t) del máximo más
grande).
Eventualmente, es posible verificar que la
atribución de la señal S(t) a la zona activa i es correcta,
por ejemplo calculando un valor MM_{i}=M_{i}/M donde M_{i} es
el máximo del valor absoluto de X_{i}(t) y M es el valor
medio de todos los valores M_{i}. La atribución de la señal
S(t) a la zona activa i puede entonces considerarse como
correcta si dicho valor MM_{i} es superior a un cierto límite,
igual por ejemplo a 1,414.
Se debe observar por otro lado que los valores
MM_{i} mencionados anteriormente pueden calcularse reemplazando
S'(\omega) por R'_{i}(\omega), con el fin de obtener
una información sobre la resolución espacial de las zonas activas.
En particular, se puede verificar entonces que una zona activa de
índice i no tiene riesgo de ser confundida con otra, verificando
que el valor MM_{i} correspondiente es superior a un límite
predeterminado, por ejemplo superior a 1,414.
Por otro lado, es posible igualmente tener en
cuenta diferentes parámetros del ambiente (temperatura, higrometría,
tensiones mecánicas, etc.) modificando las señales predeterminadas
de la biblioteca de señales en función del parámetro o parámetros
del ambiente.
A este efecto, se puede recurrir a unos de los
métodos de corrección siguientes:
- -
- expansión o compresión temporal lineal de las señales de referencia de la biblioteca de señales: en este caso, se reemplazan las señales de referencia R_{i}(t) de la biblioteca de señales por señales R_{i}(\alphat), donde \alpha es un coeficiente multiplicador positivo no nulo que es función de los parámetros del ambiente, pudiendo ser determinado dicho coeficiente \alpha teóricamente, o incluso experimentalmente para un material dado, o incluso experimentalmente para cada objeto (5);
- -
- expansión o compresión temporal lineal de las señales captadas S(t): en este caso, las señales de referencia R_{i}(t) no se modifican, pero se reemplaza la señal captada S(t) por S(\alphat) donde \alpha es un coeficiente tal como está definido anteriormente;
\newpage
- -
- expansión o compresión no lineal en frecuencia de las señales de referencia: en este caso, se reemplazan {}\hskip17cm las señales frecuenciales R'_{i}(\omega) por R'_{i}(\omega'), con \omega' = \frac{\omega \beta ^{2}}{1 + \sqrt{(\omega / \omega _{N}) \cdot (\beta - 1)}}, donde \omega_{N} es igual a la mitad {}\hskip17cm de la frecuencia de muestreo del dispositivo de tratamiento, y \beta es un coeficiente determinado de forma teórica o experimental;
- -
- expansión o compresión no lineal en frecuencia de la señal captada S(t): en este caso, las señales de referencia de la biblioteca de señales no se modifican, y se reemplaza la señal S'(\omega) por S'(\omega'), estando definida \omega' anteriormente.
\vskip1.000000\baselineskip
En los dos casos mencionados anteriormente de
expansión o compresión no lineal en frecuencia, también se puede
recurrir a una corrección de fase media, en cuyo caso se reemplazan
las señales R_{i}(\omega') por
R_{i}(\omega').M'(\omega)/N'(\omega) y se reemplazan
las señales S(\omega') por
S(\omega').M'(\omega)/N'(\omega). En una u otra de
estas fórmulas,
N'(\omega)=M(\omega)/|M(\omega)|, y
N'(\omega)=N(\omega)/|N(\omega)|,
siendo M(\omega) igual a la media de todas las
R_{i}(\omega) y siendo N(\omega) igual a la
media de todas las R_{i}(\omega').
Las diferentes correcciones mencionadas
anteriormente de las señales de referencia R_{i}(\omega)
o de la señal captada S(\omega) pueden efectuarse o bien
de forma automática por la unidad central (2), particularmente en
función de informaciones entregadas por uno o varios sensores (no
representados), o manualmente por el usuario.
Por otro lado, se debe observar que la unidad
central (2) puede comportar varias bibliotecas de señales de
referencia adaptadas a diferentes valores de parámetros del
ambiente.
Por otro lado, para adaptarse a los tipos de
impacto generados durante la utilización del dispositivo, y
particularmente para adaptarse a la utilización o bien de un dedo
del usuario, o bien de otro objeto para generar los impactos, puede
ser ventajoso solicitar al usuario que genere impactos en una o
varias zonas activas (10) predeterminadas, por ejemplo dos zonas
activas de índices m y p. De este modo se captan dos señales
temporales S_{m}(t) y S_{p}(t), de las cuales se
calculan las transformadas de Fourier S_{m}(\omega) y
S_{p}(\omega), y a continuación se calcula la media
M_{1}(\omega) de los dos términos siguientes:
- -
- (R_{m}(\omega).|S_{m}(\omega)|)/(|R_{m}(\omega)|.S_{m}(\omega)),
- -
- y (R_{p}(\omega).|S_{p}(\omega)|)/(|R_{p}(\omega)|.S_{p}(\omega)).
A continuación esta media
M_{1}(\omega) se utiliza en la etapa (3) definida
anteriormente para reemplazar el producto P_{i}(\omega)
por M_{1}(\omega).P_{i}(\omega), siendo este
producto utilizado a continuación en lugar de
P_{i}(\omega) en la etapa (4).
Por otro lado, se debe observar que la invención
permite a un usuario definir a su modo zonas activas, y la unidad
central (2) puede adaptarse para mantener activa esta definición de
zonas activas únicamente durante la utilización efectiva del objeto
(5) como interfaz acústica. En este caso, la definición
anteriormente mencionada de zonas activas es borrada por la unidad
central (2) después de un cierto periodo de inutilización del
dispositivo.
Se debe observar igualmente que la función
generada por un impacto en una zona activa puede ser modulada en
caso deseado en función de la intensidad de dicho impacto.
Se debe observar igualmente que, cuando el
objeto (5) presenta fenómenos de resonancia que provocan
propagaciones prolongadas de ondas acústicas a cada impacto en las
zonas activas, puede ser ventajoso elevar el umbral de detección de
las señales acústicas S(t) (por ejemplo hasta 0,5 veces el
valor máximo admisible por el sistema electrónico de adquisición de
la señal S(t)) cuando una señal S(t) ha sido
detectada, y a continuación bajar dicho umbral de detección
(particularmente de forma exponencial) hasta su nivel normal: así se
evitan detecciones múltiples de un mismo impacto.
Se debe observar que, en todos los modos de
realización de la invención, sería posible eventualmente definir
una sola zona activa en el objeto (5), en cuyo caso sin embargo es
posible codificar varias funciones en esta zona activa única, por
ejemplo según el número de impactos generados consecutivamente en la
misma zona.
Por otro lado, las zonas activas (10) pueden
eventualmente no estar definidas de antemano, sino estar simplemente
definidas en función de los impactos sucesivos recibidos durante la
utilización del dispositivo. De este modo, se puede por ejemplo
concebir el dispositivo para que comporte tres zonas activas, y que
cada una se defina simplemente para la recepción de un primer
impacto en cada zona, y que sean reconocidas a continuación como
"primera zona", "segunda zona" y "tercera zona" para
la recepción de impactos siguientes.
Por otro lado, cuando las zonas activas son muy
numerosas, se puede en caso deseado recurrir a un dispositivo
automatizado para generar las señales de referencia en stock de la
biblioteca de señales en el curso de la fase de aprendizaje. Este
dispositivo automatizado podría por ejemplo constar de un sistema de
desplazamiento de dos dimensiones que conste de dos motores paso a
paso para desplazar por ejemplo un estilete de excitación o similar
por la superficie del objeto (5) y para generar impactos por medio
de dicho estilete, accionado por ejemplo por un solenoide, a nivel
de las diferentes zonas activas.
Todavía en el caso en el que las zonas activas
(10) son muy numerosas, es posible repartirlas en varios grupos de
semejanza. En este caso, durante la utilización corriente del
dispositivo, cuando un impacto genera una señal S(t), un
primer tratamiento permite asignar dicha señal S(t) a uno de
los grupos de semejanza, y a continuación un tratamiento afinado
permite asignar dicha señal S(t) a una de las zonas activas
de dicho grupo de semejanza.
Se debe observar también que la misma unidad
central (2) podría en caso deseado tratar las señales procedentes
de varios objetos (5). Además, es posible igualmente interconectar
directamente el sensor o los sensores acústicos con una red
particularmente IP, para dirigir las señales captadas hacia una
dirección IP única a partir de la cual dichas señales puedan ser
explotadas por cualquier ordenador conectado a la red IP.
Claims (26)
1. Procedimiento en el cual se localiza un
impacto en una superficie (9, 15, 17, 22) que pertenece a un objeto
(5, 3, 16, 18) formando interfaz acústica, dotado de al menos un
sensor acústico (6), procedimiento en el cual se capta al menos una
señal a partir de ondas acústicas generadas en el objeto formando
interfaz acústica (5, 3, 16, 18) por dicho impacto y se localiza el
impacto por tratamiento de dicha señal captada,
caracterizado porque consta de una etapa
de reconocimiento en el curso de la cual se compara la señal captada
con al menos una señal predeterminada correspondiendo a la señal
captada cuando se genera un impacto en al menos una zona activa
(10) perteneciendo a la superficie del objeto formando interfaz
acústica (5, 3, 16, 18), y se asocia el impacto a dicha zona activa
(10) si la señal captada está suficientemente cerca de dicha señal
predeterminada.
2. Procedimiento según la reivindicación 1, en
el cual la superficie del objeto formando interfaz acústica consta
de varias zonas activas (10) y, en el curso de la etapa de
reconocimiento, se compara la señal captada con varias señales
predeterminadas correspondiendo cada una a la señal captada cuando
se genera un impacto sobre dichas zonas activas (10).
3. Procedimiento según la reivindicación 1 o la
reivindicación 2, en el cual se utilizan varios sensores acústicos
(6) y, en el curso de la etapa de reconocimiento, se capta una señal
para cada sensor acústico y se comparan las señales captadas por
los diferentes sensores acústicos con las señales predeterminadas
independientemente las unas de las otras.
4. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el cual se utilizan varios sensores
acústicos (6) y, en el curso de la etapa de reconocimiento, se capta
una señal para cada sensor acústico y se comparan las señales
captadas por los diferentes sensores acústicos con las señales
predeterminadas diferentemente las unas de las otras.
5. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el cual se utilizan varios sensores
acústicos (6) midiendo varias magnitudes diferentes.
6. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el cual se utilizan como máximo dos
sensores acústicos.
7. Procedimiento según la reivindicación 1 o la
reivindicación 2, en el cual se utiliza un solo sensor acústico
(6).
8. Procedimiento según cualquiera de las
reivindicaciones anteriores, comprendiendo una etapa inicial de
aprendizaje en el curso de la cual se determina experimentalmente
cada señal predeterminada generando al menos un impacto en cada
zona activa (10).
9. Procedimiento según cualquiera de las
reivindicaciones 1 a 8, en el cual cada señal predeterminada es una
señal teórica.
10. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el cual en el curso de la etapa de
reconocimiento se compara la señal captada con al menos dicha señal
predeterminada por intercorrelación.
11. Procedimiento según cualquiera de las
reivindicaciones 1 a 9, en el cual en el curso de la etapa de
reconocimiento se compara la señal captada con al menos dicha señal
predeterminada por un procedimiento de reconocimiento escogido
entre un reconocimiento vocal, un reconocimiento de señales, un
reconocimiento de forma y un reconocimiento por red neuronal.
12. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el cual en el curso de la etapa de
reconocimiento, se asocia la señal captada o bien a una sola zona
activa, o bien a ninguna zona activa.
13. Procedimiento según la reivindicación 12, en
el cual se asocia cada zona activa a una información predeterminada
y cuando se asocia el impacto a una zona activa, se utiliza la
información predeterminada correspondiente a dicha zona activa por
un dispositivo electrónico.
14. Procedimiento según cualquiera de las
reivindicaciones 12 y 13, en el cual la superficie (9, 15, 17, 22)
del objeto formando interfaz acústica consta de un número n de zonas
activas (10), siendo n al menos igual a 2, y la etapa de
reconocimiento consta de las subetapas siguientes:
- -
- se procede a una intercorrelación de la señal captada con dichas señales predeterminadas Ri(t), siendo i un entero natural comprendido entre 1 y n que designa una zona activa, y se obtienen así funciones de intercorrelación Ci(t),
- -
- se determina una zona activa j potencialmente activada que corresponde al resultado de intercorrelación Cj(t) con un máximo de amplitud más elevado que los de los otros resultados Ci(t),
- -
- se determina igualmente la distribución D(i) de los máximos de amplitud de los resultados de intercorrelación:
D(i)=Max((Ci(t)),
- -
- se determina igualmente la distribución D'(i) de los máximos de amplitud de los resultados de intercorrelación C'i(t) entre Rj(t) y las diferentes señales predeterminadas Ri(t):
D'(i)=Max((C'i(t)),
- -
- se determina si el impacto ha sido generado en la zona activa j en función del nivel de correlación entre las distribuciones D(i) y D'(i).
15. Procedimiento según cualquiera de las
reivindicaciones 12 y 13, en el cual en el curso de la etapa de
reconocimiento se trata la señal captada para extraer de ella datos
representativos de ciertas características de la señal captada y se
comparan los datos así extraídos con los datos de referencia
extraídos de la señal captada cuando se genera un impacto en cada
zona activa.
16. Procedimiento según la reivindicación 15, en
el cual en el curso de la etapa de reconocimiento se determina un
código a partir de dichos datos extraídos de la señal captada y se
compara este código con una tabla que proporciona una
correspondencia entre al menos ciertos códigos y cada zona
activa.
17. Procedimiento según cualquiera de las
reivindicaciones 1 a 14, en el cual el objeto formando interfaz
acústica (5, 3, 16, 18) consta al menos de dos zonas activas (10) y
en el curso de la etapa de reconocimiento se determinan valores de
similitud representativos de la similitud entre la señal captada y
las señales predeterminadas, se asocia el impacto (I) con varias
zonas activas adyacentes (R1-R4) correspondiendo a
un máximo de similitud, llamadas zonas activas de referencia, y a
continuación se determina la posición del impacto (I) en la
superficie en función de los valores de similitud atribuidos a las
zonas activas de referencia (R1-R4).
18. Procedimiento según la reivindicación 17, en
el cual se determina la posición del impacto (I) en la superficie
de manera que los valores de similitud atribuidos a las zonas
activas de referencia (R1-R4) correspondan lo más
posible a valores de similitud teóricos calculados por dichas zonas
activas de referencia para un impacto generado en dicha posición en
la superficie.
19. Procedimiento según la reivindicación 18, en
el cual se determina la posición del impacto (I) en la superficie
de manera que los valores de similitud atribuidos a las zonas
activas de referencia (R1-R4) correspondan lo mejor
posible a valores de similitud teóricos calculados por dichas zonas
activas de referencia para un impacto generado en dicha posición en
la superficie.
20. Procedimiento según la reivindicación 19, en
el cual los valores de similitud teóricos son funciones de la
posición del impacto en la superficie, determinadas de antemano para
cada conjunto posible de zonas activas de referencia
(R1-R4).
21. Procedimiento según la reivindicación 8, en
el cual se identifica la zona activa mediante la comparación entre
la fase de las señales predeterminadas R_{i}(t) y la de la
señal captada.
22. Procedimiento según la reivindicación 21, en
el cual:
- -
- durante la fase de aprendizaje, se calcula la transformada de Fourier R_{i}(\omega)=|R_{i}(\omega)|.e^{j \phi i(\omega)} de cada señal acústica R_{i}(t) generada por un impacto en la zona activa i, donde i es un índice comprendido entre 1 y n, y no se conserva de esta transformada de Fourier más que la componente de fase e^{j \phi i(\omega)}, en las únicas bandas de frecuencia \omega donde la amplitud |R_{i}(\omega)| es superior a un umbral predeterminado,
- -
- y a continuación se aplica el mismo tratamiento a cada señal acústica captada S(t) durante el funcionamiento normal del dispositivo.
23. Procedimiento según la reivindicación 21, en
el cual el umbral predeterminado es igual al máximo de MAX/D y de
|B(\omega)|, donde:
- -
- se escoge MAX entre el valor máximo de los módulos |R_{i}(\omega)|, el valor máximo de los módulos |R_{i}(\omega)| normalizados cada uno en energía y el valor máximo de la envoltura de la media de los módulos |R_{i}(\omega)| normalizados cada uno en energía,
- -
- D es una constante,
- -
- |B(\omega)| es la media de varios espectros de ruido en el objeto formando interfaz acústica, adquiridos a distintos instantes.
24. Procedimiento según la reivindicación 22 o
la reivindicación 23, en el cual durante el funcionamiento normal
del dispositivo:
- -
- se calcula un producto P_{i}(\omega) igual a S'(\omega) multiplicado por el conjugado de R_{i}'(\omega) para referencias i=1 ... n,
- -
- y a continuación se normalizan los productos P_{i}(\omega),
- -
- a continuación se efectúa la transformada de Fourier inversa de todos los productos P_{i}(\omega) y se obtienen funciones temporales X_{i}(t),
- -
- y se atribuye la señal S(t) a una zona activa (10) en función de dichas funciones temporales X_{i}(t).
25. Procedimiento según la reivindicación 24, en
la cual se atribuye la señal S(t) a una zona activa (10) en
función de los valores máximos de dichas funciones temporales
X_{i}(t).
26. Dispositivo especialmente adaptado para
poner en práctica un procedimiento según cualquiera de las
reivindicaciones anteriores, destinado a localizar un impacto en
una superficie (9, 15, 17, 22) perteneciendo a un objeto (5, 3, 16,
18) formando interfaz acústica, dotado de al menos un sensor
acústico (6), comprendiendo dicho dispositivo medios para captar al
menos una señal a partir de ondas acústicas generadas en el objeto
formando interfaz acústica (5, 3, 16, 18) por dicho impacto y
medios para localizar el impacto por tratamiento de dicha señal
captada,
caracterizado porque consta de medios de
reconocimiento adaptados para comparar la señal captada con al menos
una señal predeterminada correspondiendo a la señal que es captada
cuando se genera un impacto en al menos una zona activa (10)
perteneciendo a la superficie del objeto (5, 3, 16, 18), y de medios
para asociar el impacto a dicha zona activa (10) si la señal
captada está suficientemente cerca de dicha señal
predeterminada.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0207208A FR2841022B1 (fr) | 2002-06-12 | 2002-06-12 | Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede |
FR0207208 | 2002-06-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2312810T3 true ES2312810T3 (es) | 2009-03-01 |
Family
ID=29595165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03760020T Expired - Lifetime ES2312810T3 (es) | 2002-06-12 | 2003-06-12 | Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. |
Country Status (14)
Country | Link |
---|---|
US (2) | US7345677B2 (es) |
EP (1) | EP1512116B9 (es) |
JP (1) | JP4249705B2 (es) |
KR (1) | KR100991955B1 (es) |
CN (1) | CN100412777C (es) |
AT (1) | ATE404912T1 (es) |
AU (1) | AU2003253071A1 (es) |
CA (1) | CA2489326C (es) |
DE (1) | DE60322893D1 (es) |
DK (1) | DK1512116T3 (es) |
ES (1) | ES2312810T3 (es) |
FR (1) | FR2841022B1 (es) |
PT (1) | PT1512116E (es) |
WO (1) | WO2003107261A2 (es) |
Families Citing this family (139)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0116310D0 (en) * | 2001-07-04 | 2001-08-29 | New Transducers Ltd | Contact sensitive device |
US6871149B2 (en) * | 2002-12-06 | 2005-03-22 | New Transducers Limited | Contact sensitive device |
FR2874274B1 (fr) * | 2004-08-11 | 2007-07-20 | Sensitive Object | Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede |
FR2876406B1 (fr) * | 2004-10-12 | 2008-05-02 | Sensitive Object | Installation de controle d'acces a commande acoustique et dispositif de controle d'acces pour une telle installation |
US8392486B2 (en) | 2004-12-29 | 2013-03-05 | Elo Touch Solutions, Inc. | Method for determining the position of impacts |
US20060139339A1 (en) * | 2004-12-29 | 2006-06-29 | Pechman Robert J | Touch location determination using vibration wave packet dispersion |
US7583808B2 (en) * | 2005-03-28 | 2009-09-01 | Mitsubishi Electric Research Laboratories, Inc. | Locating and tracking acoustic sources with microphone arrays |
DE602005020068D1 (de) * | 2005-04-13 | 2010-04-29 | Sensitive Object | Verfahren zur bestimmung von aufprallstellen mittels akustischer bildgebung |
US7683890B2 (en) * | 2005-04-28 | 2010-03-23 | 3M Innovative Properties Company | Touch location determination using bending mode sensors and multiple detection techniques |
FR2885427B1 (fr) * | 2005-05-09 | 2007-10-26 | Peugeot Citroen Automobiles Sa | Dispositif de controle et/ou de commande d'elements d'equipements d'un vehicule automobile a boutons-poussoirs et dalle tactile |
US9019209B2 (en) * | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
US7593005B2 (en) * | 2005-12-13 | 2009-09-22 | Awr Consulting Inc. | Touch detection system |
EP1798635A1 (en) * | 2005-12-14 | 2007-06-20 | Research In Motion Limited | Handheld electronic device having virtual keypad input device, and associated method |
US7800596B2 (en) * | 2005-12-14 | 2010-09-21 | Research In Motion Limited | Handheld electronic device having virtual navigational input device, and associated method |
ATE545082T1 (de) * | 2005-12-14 | 2012-02-15 | Research In Motion Ltd | Tragbare elektronische vorrichtung mit virtuellem navigationseingabegerät und entsprechendes verfahren |
US7907129B2 (en) * | 2005-12-14 | 2011-03-15 | Research In Motion Limited | Handheld electronic device having virtual keypad input device, and associated method |
RU2395853C2 (ru) * | 2006-04-12 | 2010-07-27 | Электролюкс Хоум Продактс Корпорейшн Н.В. | Бытовой электроприбор |
ES2311360B1 (es) * | 2006-07-07 | 2009-12-02 | Bsh Electrodomesticos España, S.A. | Aparato electrodomestico. |
US8233353B2 (en) * | 2007-01-26 | 2012-07-31 | Microsoft Corporation | Multi-sensor sound source localization |
DE102007023826A1 (de) * | 2007-05-21 | 2008-11-27 | Polytec Gmbh | Verfahren und Vorrichtung zur berührungslosen Schwingungsmessung |
FR2916545B1 (fr) * | 2007-05-23 | 2009-11-20 | Inst Pour Le Dev De La Science | Procede pour localiser un toucher sur une surface et dispositif pour la mise en oeuvre de ce procede. |
WO2008146098A1 (en) * | 2007-05-28 | 2008-12-04 | Sensitive Object | Method for determining the position of an excitation on a surface and device for implementing such a method |
US8493332B2 (en) * | 2007-06-21 | 2013-07-23 | Elo Touch Solutions, Inc. | Method and system for calibrating an acoustic touchscreen |
US8730213B2 (en) * | 2007-07-02 | 2014-05-20 | Elo Touch Solutions, Inc. | Method and system for detecting touch events based on redundant validation |
US8378974B2 (en) * | 2007-07-02 | 2013-02-19 | Elo Touch Solutions, Inc. | Method and system for detecting touch events based on magnitude ratios |
EP2017703A1 (en) * | 2007-07-09 | 2009-01-21 | Sensitive Object | Touch control system and method for localising an excitation |
GB0721475D0 (en) * | 2007-11-01 | 2007-12-12 | Asquith Anthony | Virtual buttons enabled by embedded inertial sensors |
ATE545083T1 (de) | 2007-12-21 | 2012-02-15 | Tyco Electronics Services Gmbh | Verfahren zur bestimmung der positionen mindestens zweier einschläge |
JP4926091B2 (ja) * | 2008-02-19 | 2012-05-09 | 株式会社日立製作所 | 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム |
US8842097B2 (en) * | 2008-08-29 | 2014-09-23 | Nec Corporation | Command input device, mobile information device, and command input method |
EP2175348A1 (en) * | 2008-10-07 | 2010-04-14 | Sensitive Object | Tactile man-machine interface with data communication interface |
FR2939219B1 (fr) * | 2008-12-03 | 2012-08-03 | Faurecia Interieur Ind | Dispositif d'interface homme-machine a detection acoustique et vehicule automobile comprenant un tel dispositif. |
TW201026009A (en) * | 2008-12-30 | 2010-07-01 | Ind Tech Res Inst | An electrical apparatus, circuit for receiving audio and method for filtering noise |
US8797279B2 (en) | 2010-05-25 | 2014-08-05 | MCube Inc. | Analog touchscreen methods and apparatus |
US8928602B1 (en) | 2009-03-03 | 2015-01-06 | MCube Inc. | Methods and apparatus for object tracking on a hand-held device |
DE112010002072T5 (de) * | 2009-05-22 | 2012-10-11 | Semiconductor Components Industries, Llc | Verfahren und Vorrichtung zum Detektieren eines Haltezustands auf einer akustischen Berührungsoberfläche |
EP2264575B1 (en) * | 2009-06-19 | 2017-08-09 | Elo Touch Solutions, Inc. | Method for determining the locations of one or more impacts or touches on a surface of an object including two or more transducers |
CN102804112A (zh) * | 2009-06-23 | 2012-11-28 | 电子触控产品解决方案公司 | 一种方法和用于执行该方法的触摸检测装置 |
US8823007B2 (en) | 2009-10-28 | 2014-09-02 | MCube Inc. | Integrated system on chip using multiple MEMS and CMOS devices |
US8477473B1 (en) | 2010-08-19 | 2013-07-02 | MCube Inc. | Transducer structure and method for MEMS devices |
US8421082B1 (en) | 2010-01-19 | 2013-04-16 | Mcube, Inc. | Integrated CMOS and MEMS with air dielectric method and system |
US8476129B1 (en) | 2010-05-24 | 2013-07-02 | MCube Inc. | Method and structure of sensors and MEMS devices using vertical mounting with interconnections |
US8710597B1 (en) | 2010-04-21 | 2014-04-29 | MCube Inc. | Method and structure for adding mass with stress isolation to MEMS structures |
US8553389B1 (en) | 2010-08-19 | 2013-10-08 | MCube Inc. | Anchor design and method for MEMS transducer apparatuses |
US8310457B2 (en) * | 2009-06-30 | 2012-11-13 | Research In Motion Limited | Portable electronic device including tactile touch-sensitive input device and method of protecting same |
FR2948787B1 (fr) | 2009-07-29 | 2011-09-09 | Commissariat Energie Atomique | Dispositif et procede de localisation d'un contact localement deformant sur une surface tactile deformable d'un objet |
US8654524B2 (en) | 2009-08-17 | 2014-02-18 | Apple Inc. | Housing as an I/O device |
US8441790B2 (en) * | 2009-08-17 | 2013-05-14 | Apple Inc. | Electronic device housing as acoustic input device |
US9696856B2 (en) | 2009-09-29 | 2017-07-04 | Elo Touch Solutions, Inc. | Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen |
JP5469995B2 (ja) * | 2009-10-20 | 2014-04-16 | 古野電気株式会社 | ドップラ計測器、ドップラ計測方法、潮流計、および潮流計測方法 |
US9709509B1 (en) * | 2009-11-13 | 2017-07-18 | MCube Inc. | System configured for integrated communication, MEMS, Processor, and applications using a foundry compatible semiconductor process |
US20110156861A1 (en) * | 2009-12-31 | 2011-06-30 | Motorola, Inc. | Electronic Device Including a Wireless Actuator and a Method Thereof |
US8637943B1 (en) | 2010-01-04 | 2014-01-28 | MCube Inc. | Multi-axis integrated MEMS devices with CMOS circuits and method therefor |
EP2524288A1 (en) | 2010-01-13 | 2012-11-21 | Elo Touch Solutions, Inc. | Noise reduction in electronic device with touch sensitive surface |
US8624878B2 (en) * | 2010-01-20 | 2014-01-07 | Apple Inc. | Piezo-based acoustic and capacitive detection |
KR101678549B1 (ko) * | 2010-02-02 | 2016-11-23 | 삼성전자주식회사 | 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스 |
US8936959B1 (en) | 2010-02-27 | 2015-01-20 | MCube Inc. | Integrated rf MEMS, control systems and methods |
US8794065B1 (en) | 2010-02-27 | 2014-08-05 | MCube Inc. | Integrated inertial sensing apparatus using MEMS and quartz configured on crystallographic planes |
US8576202B2 (en) * | 2010-03-25 | 2013-11-05 | Elo Touch Solutions, Inc. | Bezel-less acoustic touch apparatus |
EP2372509A1 (en) | 2010-03-29 | 2011-10-05 | Tyco Electronics Services GmbH | Method for detecting a sustained contact and corresponding device |
US8367522B1 (en) | 2010-04-08 | 2013-02-05 | MCube Inc. | Method and structure of integrated micro electro-mechanical systems and electronic devices using edge bond pads |
KR101997034B1 (ko) * | 2010-04-19 | 2019-10-18 | 삼성전자주식회사 | 인터페이스 방법 및 장치 |
US8928696B1 (en) | 2010-05-25 | 2015-01-06 | MCube Inc. | Methods and apparatus for operating hysteresis on a hand held device |
US8652961B1 (en) | 2010-06-18 | 2014-02-18 | MCube Inc. | Methods and structure for adapting MEMS structures to form electrical interconnections for integrated circuits |
US8869616B1 (en) | 2010-06-18 | 2014-10-28 | MCube Inc. | Method and structure of an inertial sensor using tilt conversion |
EP2405332B1 (en) * | 2010-07-09 | 2013-05-29 | Elo Touch Solutions, Inc. | Method for determining a touch event and touch sensitive device |
US8993362B1 (en) | 2010-07-23 | 2015-03-31 | MCube Inc. | Oxide retainer method for MEMS devices |
US8941623B2 (en) | 2010-07-27 | 2015-01-27 | Motorola Mobility Llc | Methods and devices for determining user input location based on device support configuration |
US8907930B2 (en) | 2010-08-06 | 2014-12-09 | Motorola Mobility Llc | Methods and devices for determining user input location using acoustic sensing elements |
GB201014309D0 (en) | 2010-08-27 | 2010-10-13 | Inputdynamics Ltd | Signal processing systems |
US9459733B2 (en) | 2010-08-27 | 2016-10-04 | Inputdynamics Limited | Signal processing systems |
US8723986B1 (en) | 2010-11-04 | 2014-05-13 | MCube Inc. | Methods and apparatus for initiating image capture on a hand-held device |
GB201019767D0 (en) | 2010-11-22 | 2011-01-05 | Bpb Ltd | Actuator and method of manufacture thereof |
KR20120083693A (ko) * | 2011-01-18 | 2012-07-26 | 삼성모바일디스플레이주식회사 | 터치 감지 방법, 그 방법을 구현하기 위한 프로그램이 기록된 기록매체 및 터치 감지 시스템 |
US9477350B2 (en) * | 2011-04-26 | 2016-10-25 | Sentons Inc. | Method and apparatus for active ultrasonic touch devices |
US9189109B2 (en) | 2012-07-18 | 2015-11-17 | Sentons Inc. | Detection of type of object used to provide a touch contact input |
US10198097B2 (en) | 2011-04-26 | 2019-02-05 | Sentons Inc. | Detecting touch input force |
US9639213B2 (en) | 2011-04-26 | 2017-05-02 | Sentons Inc. | Using multiple signals to detect touch input |
US11327599B2 (en) | 2011-04-26 | 2022-05-10 | Sentons Inc. | Identifying a contact type |
US8576197B2 (en) * | 2011-05-16 | 2013-11-05 | Pixart Imaging, Inc. | Noise blanking for capacitive touch displays |
EP2525280A1 (en) | 2011-05-17 | 2012-11-21 | Elo Touch Solutions, Inc. | Method for detecting a touch-and-hold touch event and corresponding device |
US8706443B2 (en) * | 2011-06-21 | 2014-04-22 | General Electric Company | System and method for monitoring rotating device |
US8725451B2 (en) * | 2011-06-21 | 2014-05-13 | General Electric Company | Systems and methods for use in monitoring operation of a rotating device |
US8655621B2 (en) * | 2011-06-21 | 2014-02-18 | General Electric Company | Systems and methods for use in monitoring operation of a rotating device |
US8969101B1 (en) | 2011-08-17 | 2015-03-03 | MCube Inc. | Three axis magnetic sensor device and method using flex cables |
TW201316240A (zh) * | 2011-10-06 | 2013-04-16 | Rich Ip Technology Inc | 利用圖形用戶介面影像之觸碰處理方法及系統 |
EP2581814A1 (en) | 2011-10-14 | 2013-04-17 | Elo Touch Solutions, Inc. | Method for detecting a touch-and-hold touch event and corresponding device |
US10235004B1 (en) | 2011-11-18 | 2019-03-19 | Sentons Inc. | Touch input detector with an integrated antenna |
US11340124B2 (en) | 2017-08-14 | 2022-05-24 | Sentons Inc. | Piezoresistive sensor for detecting a physical disturbance |
US9449476B2 (en) | 2011-11-18 | 2016-09-20 | Sentons Inc. | Localized haptic feedback |
US9594450B2 (en) | 2011-11-18 | 2017-03-14 | Sentons Inc. | Controlling audio volume using touch input force |
US9756927B2 (en) | 2011-11-30 | 2017-09-12 | Apple Inc. | Mounting system for portable electronic device |
US9335844B2 (en) * | 2011-12-19 | 2016-05-10 | Synaptics Incorporated | Combined touchpad and keypad using force input |
US8904052B2 (en) | 2011-12-23 | 2014-12-02 | Apple Inc. | Combined input port |
US9372581B2 (en) * | 2012-01-09 | 2016-06-21 | Broadcom Corporation | Interference estimation and adaptive reconfiguration of a capacitive touch controller |
US9513727B2 (en) | 2012-07-18 | 2016-12-06 | Sentons Inc. | Touch input surface microphone |
US9348468B2 (en) | 2013-06-07 | 2016-05-24 | Sentons Inc. | Detecting multi-touch inputs |
US9524063B2 (en) | 2012-07-18 | 2016-12-20 | Sentons Inc. | Detection of a number of touch contacts of a multi-touch input |
EP2693314A1 (en) | 2012-07-31 | 2014-02-05 | Elo Touch Solutions, Inc. | Touch sensitive display with acoustic isolation |
EP2693315A1 (en) | 2012-07-31 | 2014-02-05 | Elo Touch Solutions, Inc. | Touch sensitive display with acoustic isolation |
CN103576995A (zh) | 2012-07-31 | 2014-02-12 | 电子触控产品解决方案公司 | 具有隔音装置的触敏显示器 |
US9563239B2 (en) | 2012-09-10 | 2017-02-07 | Apple Inc. | Internal computer assembly features and methods |
FR2995703B1 (fr) * | 2012-09-14 | 2015-12-25 | Commissariat Energie Atomique | Systeme et procede de detection de l’actionnement d’une fonction materialisee par un trajet predetermine sur une surface tactile d’un objet |
US9281727B1 (en) * | 2012-11-01 | 2016-03-08 | Amazon Technologies, Inc. | User device-based control of system functionality |
US9465413B2 (en) * | 2012-12-10 | 2016-10-11 | Intel Corporation | Keyboard configuration for an electronic device |
US9430098B2 (en) * | 2012-12-17 | 2016-08-30 | Apple Inc. | Frequency sensing and magnification of portable device output |
CN103076914B (zh) * | 2012-12-20 | 2015-10-28 | 杜朝亮 | 一种基于能量分布向量比的触击位置和能量测量方法 |
US9128566B2 (en) * | 2013-02-28 | 2015-09-08 | Acs Co., Ltd. | Acoustic pulse recognition with increased accuracy by localizing contact area of plate |
US9507464B2 (en) | 2013-03-15 | 2016-11-29 | Elo Touch Solutions, Inc. | Acoustic touch apparatus and methods using touch sensitive lamb waves |
US9588552B2 (en) | 2013-09-11 | 2017-03-07 | Sentons Inc. | Attaching electrical components using non-conductive adhesive |
US9459715B1 (en) | 2013-09-20 | 2016-10-04 | Sentons Inc. | Using spectral control in detecting touch input |
US9880671B2 (en) | 2013-10-08 | 2018-01-30 | Sentons Inc. | Damping vibrational wave reflections |
FR3012231B1 (fr) * | 2013-10-18 | 2016-01-01 | Univ Aix Marseille | Dispositif et procede de reperage de terrain en vol pour microdrone |
US9836084B2 (en) | 2014-03-28 | 2017-12-05 | Intel Corporation | Inferred undocking for hybrid tablet computer |
US10058031B1 (en) * | 2015-02-28 | 2018-08-28 | Hydro-Gear Limited Partnership | Lawn tractor with electronic drive and control system |
US9980434B1 (en) | 2015-02-28 | 2018-05-29 | Hydro-Gear Limited Partnership | Network for placing a plurality of lawnmower components in operative communication |
FR3035510B1 (fr) * | 2015-04-21 | 2018-10-26 | Airbus Group Sas | Moyen acoustique de detection, de localisation et d'evaluation automatique d'impacts subis par une structure |
US11356520B2 (en) * | 2015-05-29 | 2022-06-07 | Sound United, Llc. | System and method for selecting and providing zone-specific media |
US10048811B2 (en) | 2015-09-18 | 2018-08-14 | Sentons Inc. | Detecting touch input provided by signal transmitting stylus |
CN105628868B (zh) * | 2015-12-18 | 2018-08-21 | 北京航空航天大学 | 一种复合材料结构的欠采样信号冲击定位处理方法和系统 |
CN105527608A (zh) * | 2016-01-20 | 2016-04-27 | 深圳大学 | 基于固体传播的声波室内定位方法 |
IT201600085079A1 (it) * | 2016-08-12 | 2018-02-12 | Intendime Srls | Dispositivo di segnalazione per allarmi sonori e simili |
FR3056780B1 (fr) | 2016-09-27 | 2018-10-12 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Dispositif de localisation d'un impact contre une surface interactive, installations, procede et programme d'ordinateur correspondants |
FR3057367B1 (fr) | 2016-10-10 | 2018-11-09 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Dispositif de localisation d'un impact contre une surface interactive, procede et programme d'ordinateur correspondants |
US10908741B2 (en) * | 2016-11-10 | 2021-02-02 | Sentons Inc. | Touch input detection along device sidewall |
US10296144B2 (en) | 2016-12-12 | 2019-05-21 | Sentons Inc. | Touch input detection with shared receivers |
US10126877B1 (en) | 2017-02-01 | 2018-11-13 | Sentons Inc. | Update of reference data for touch input detection |
US10585522B2 (en) | 2017-02-27 | 2020-03-10 | Sentons Inc. | Detection of non-touch inputs using a signature |
GB201708100D0 (en) * | 2017-05-19 | 2017-07-05 | Sintef | Input device |
FR3070080B1 (fr) | 2017-08-09 | 2019-08-23 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede de fabrication d'un dispositif de localisation d'impact a au moins trois transducteurs fixes contre une surface interactive |
US11580829B2 (en) | 2017-08-14 | 2023-02-14 | Sentons Inc. | Dynamic feedback for haptics |
CN108494908B (zh) * | 2018-03-09 | 2021-07-23 | Oppo广东移动通信有限公司 | 电子装置和制造方法 |
NL2023857B1 (en) * | 2019-09-19 | 2021-05-25 | Microsoft Technology Licensing Llc | Systems and methods for dynamically adjusting opening force |
KR102415820B1 (ko) | 2019-12-09 | 2022-06-30 | 한림대학교 산학협력단 | 인공지능 기반 표면 인식 방법을 통한 스마트 기기 시스템의 제어 방법, 장치 및 프로그램 |
US11291910B2 (en) * | 2020-02-14 | 2022-04-05 | Mediatek Inc. | Apparatuses and methods for providing a virtual input key |
CN111721450B (zh) * | 2020-06-22 | 2021-06-29 | 山东大学 | 一种冲击定位识别装置及方法 |
CN112734832B (zh) * | 2021-01-22 | 2024-05-31 | 逆可网络科技有限公司 | 一种即时获得线上物体实际尺寸测量方法 |
US12166911B2 (en) | 2021-03-02 | 2024-12-10 | Apple Inc. | Handheld electronic device |
US20240295882A1 (en) * | 2023-03-03 | 2024-09-05 | Samsung Electronics Co., Ltd. | Ultrasonic piezoelectric transceiver sensor for full surface contact localization |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US542189A (en) * | 1895-07-02 | Document file and record cabinet | ||
GB238125A (en) | 1924-12-30 | 1925-08-13 | Joseph Walker | Improvements in or relating to wheels and to the manufacture thereof |
US4317227A (en) * | 1980-06-09 | 1982-02-23 | Zenith Radio Corporation | Multi-mode automatic channel frequency synthesis system |
US5059959A (en) * | 1985-06-03 | 1991-10-22 | Seven Oaks Corporation | Cursor positioning method and apparatus |
FR2595744A1 (fr) * | 1986-03-14 | 1987-09-18 | Colliot Georges | Cle et serrure electroacoustique correspondante |
US5194852A (en) * | 1986-12-01 | 1993-03-16 | More Edward S | Electro-optic slate for direct entry and display and/or storage of hand-entered textual and graphic information |
JP3111087B2 (ja) * | 1990-09-06 | 2000-11-20 | シャープ株式会社 | 信号入力装置 |
JPH0736142B2 (ja) * | 1991-10-10 | 1995-04-19 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動指示手段の運動停止を認識する方法および情報処理装置 |
US5412189A (en) * | 1992-12-21 | 1995-05-02 | International Business Machines Corporation | Touch screen apparatus with tactile information |
US5628031A (en) * | 1993-07-19 | 1997-05-06 | Elonex Ip Holdings Ltd. | Personal digital assistant module implemented as a low-profile printed circuit assembly having a rigid substrate wherein IC devices are mounted within openings wholly between opposite plane surfaces of the rigid substrate |
EP0657842B1 (en) * | 1993-12-07 | 1999-03-10 | Seiko Epson Corporation | Touch panel input device and method of generating input signals for an information processing device |
US5691959A (en) * | 1994-04-06 | 1997-11-25 | Fujitsu, Ltd. | Stylus position digitizer using acoustic waves |
JPH08263208A (ja) * | 1995-02-24 | 1996-10-11 | Whitaker Corp:The | 弾性波タッチパネル及びその製造方法 |
US5591945A (en) * | 1995-04-19 | 1997-01-07 | Elo Touchsystems, Inc. | Acoustic touch position sensor using higher order horizontally polarized shear wave propagation |
GB2301217B (en) | 1995-05-26 | 1999-12-15 | Nokia Mobile Phones Ltd | Display driver |
FR2749938B1 (fr) * | 1996-06-13 | 1998-08-28 | Fink Mathias | Procede et dispositif de detection et de localisation de source sonore reflechissante |
FR2757659B1 (fr) * | 1996-12-20 | 1999-03-26 | Sextant Avionique | Procede d'optimisation de la detection du point d'attouchement d'une surface tactile capacitive |
US6549193B1 (en) * | 1998-10-09 | 2003-04-15 | 3M Innovative Properties Company | Touch panel with improved linear response and minimal border width electrode pattern |
US6167165A (en) * | 1998-11-25 | 2000-12-26 | Eastman Kodak Company | Method for adjusting image detail to compensate for an applied tone scale |
US6225985B1 (en) * | 1999-03-26 | 2001-05-01 | Elo Touchsystems, Inc. | Acoustic touchscreen constructed directly on a cathode ray tube |
GB9928682D0 (en) * | 1999-12-06 | 2000-02-02 | Electrotextiles Comp Ltd | Input apparatus and a method of generating control signals |
WO2001048684A2 (en) | 1999-12-23 | 2001-07-05 | New Transducers Limited | Contact sensitive device |
US7157649B2 (en) * | 1999-12-23 | 2007-01-02 | New Transducers Limited | Contact sensitive device |
US6724373B1 (en) * | 2000-01-05 | 2004-04-20 | Brother International Corporation | Electronic whiteboard hot zones for controlling local and remote personal computer functions |
AU2001234446A1 (en) * | 2000-01-11 | 2001-07-24 | Cirque Corporation | Flexible touchpad sensor grid for conforming to arcuate surfaces |
US6636201B1 (en) * | 2000-05-26 | 2003-10-21 | Elo Touchsystems, Inc. | Acoustic touchscreen having waveguided reflector arrays |
FR2811107B1 (fr) * | 2000-06-29 | 2002-10-18 | Jean Pierre Nikolovski | Plaque acoustique interactive de precision |
US6555235B1 (en) * | 2000-07-06 | 2003-04-29 | 3M Innovative Properties Co. | Touch screen system |
US6738051B2 (en) * | 2001-04-06 | 2004-05-18 | 3M Innovative Properties Company | Frontlit illuminated touch panel |
GB0116310D0 (en) | 2001-07-04 | 2001-08-29 | New Transducers Ltd | Contact sensitive device |
ATE373262T1 (de) | 2002-02-06 | 2007-09-15 | Soundtouch Ltd | Berührungs-pad |
GB2385125A (en) | 2002-02-06 | 2003-08-13 | Soundtouch Ltd | Using vibrations generated by movement along a surface to determine position |
US7643015B2 (en) * | 2002-05-24 | 2010-01-05 | Massachusetts Institute Of Technology | Systems and methods for tracking impacts |
US7116315B2 (en) * | 2003-03-14 | 2006-10-03 | Tyco Electronics Corporation | Water tolerant touch sensor |
US7049960B2 (en) * | 2003-12-29 | 2006-05-23 | Lenovo (Singapore) Pte. Ltd | Method and system for locating objects |
-
2002
- 2002-06-12 FR FR0207208A patent/FR2841022B1/fr not_active Expired - Fee Related
-
2003
- 2003-06-12 AU AU2003253071A patent/AU2003253071A1/en not_active Abandoned
- 2003-06-12 US US10/518,152 patent/US7345677B2/en not_active Expired - Lifetime
- 2003-06-12 AT AT03760020T patent/ATE404912T1/de active
- 2003-06-12 CN CNB038165996A patent/CN100412777C/zh not_active Expired - Fee Related
- 2003-06-12 DE DE60322893T patent/DE60322893D1/de not_active Expired - Lifetime
- 2003-06-12 CA CA2489326A patent/CA2489326C/fr not_active Expired - Fee Related
- 2003-06-12 ES ES03760020T patent/ES2312810T3/es not_active Expired - Lifetime
- 2003-06-12 KR KR1020047020300A patent/KR100991955B1/ko not_active IP Right Cessation
- 2003-06-12 DK DK03760020T patent/DK1512116T3/da active
- 2003-06-12 EP EP03760020A patent/EP1512116B9/fr not_active Expired - Lifetime
- 2003-06-12 PT PT03760020T patent/PT1512116E/pt unknown
- 2003-06-12 WO PCT/FR2003/001769 patent/WO2003107261A2/fr active IP Right Grant
- 2003-06-12 JP JP2004514002A patent/JP4249705B2/ja not_active Expired - Fee Related
-
2004
- 2004-12-28 US US11/024,514 patent/US7511711B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP1512116A2 (fr) | 2005-03-09 |
DK1512116T3 (da) | 2009-01-05 |
US7345677B2 (en) | 2008-03-18 |
US20050212777A1 (en) | 2005-09-29 |
DE60322893D1 (de) | 2008-09-25 |
AU2003253071A1 (en) | 2003-12-31 |
CN100412777C (zh) | 2008-08-20 |
CN1669048A (zh) | 2005-09-14 |
US7511711B2 (en) | 2009-03-31 |
CA2489326A1 (fr) | 2003-12-24 |
KR100991955B1 (ko) | 2010-11-04 |
WO2003107261A2 (fr) | 2003-12-24 |
JP4249705B2 (ja) | 2009-04-08 |
AU2003253071A8 (en) | 2003-12-31 |
WO2003107261A3 (fr) | 2004-07-01 |
JP2005529350A (ja) | 2005-09-29 |
EP1512116B1 (fr) | 2008-08-13 |
FR2841022A1 (fr) | 2003-12-19 |
KR20050074897A (ko) | 2005-07-19 |
EP1512116B9 (fr) | 2009-03-11 |
FR2841022B1 (fr) | 2004-08-27 |
ATE404912T1 (de) | 2008-08-15 |
PT1512116E (pt) | 2008-11-19 |
CA2489326C (fr) | 2011-10-04 |
US20050174338A1 (en) | 2005-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2312810T3 (es) | Procedimiento para localizar un impacto sobre una superficie y dispositivo para la puesta en practica de este procedimiento. | |
CN105095887B (zh) | 一种指纹识别模组及指纹识别方法、显示装置 | |
US9280860B2 (en) | Fingerprint sensors and systems incorporating fingerprint sensors | |
CN105683004B (zh) | 使用生理数据控制车辆点火的系统和方法 | |
JP4753877B2 (ja) | マン−マシーンインタフェース方法 | |
US11460293B2 (en) | Surface quality sensing using self-mixing interferometry | |
US20080069412A1 (en) | Contoured biometric sensor | |
US20070132738A1 (en) | Handheld electronic device having virtual navigational input device, and associated method | |
KR101865371B1 (ko) | 초음파를 이용한 이중 인증 장치 및 방법 | |
JP2018534014A (ja) | 超音波撮像デバイスおよび方法 | |
JP2004089675A (ja) | 本人照合装置、カード型情報記録媒体及びそれを用いた情報処理システム | |
US10922394B2 (en) | Electronic device including fingerprint sensor and method for operating the same | |
JPH02158820A (ja) | スタイラス及び入力システム | |
WO2009131987A3 (en) | Method and system of identifying a user of a handheld device | |
DE60138533D1 (de) | Piezoelektrisches biometrisches identifikationsgerät und dessen anwendung | |
US20050249387A1 (en) | Finger-based identification systems and methods | |
KR101923154B1 (ko) | 정전용량방식 지문센서를 구비한 디지털 도어록 | |
CN115162854A (zh) | 一种手指锁和解锁方法 | |
KR20140144667A (ko) | 인디케이터용 지문센서 모듈 | |
JPH0731323Y2 (ja) | 指紋認識装置用指置き台 | |
CN108683503B (zh) | 一种基于声波的动态身份识别认证方法 | |
TW201931197A (zh) | 電子系統及操作方法 | |
CN108038949A (zh) | 门禁系统、门禁机器人及其操作方法 | |
KR20220079778A (ko) | 표시 장치 및 그의 구동 방법 | |
CA2571051A1 (en) | Handheld electronic device having virtual navigational input device, and associated method |