DE19962218C2 - Verfahren und System zum Autorisieren von Sprachbefehlen - Google Patents
Verfahren und System zum Autorisieren von SprachbefehlenInfo
- Publication number
- DE19962218C2 DE19962218C2 DE19962218A DE19962218A DE19962218C2 DE 19962218 C2 DE19962218 C2 DE 19962218C2 DE 19962218 A DE19962218 A DE 19962218A DE 19962218 A DE19962218 A DE 19962218A DE 19962218 C2 DE19962218 C2 DE 19962218C2
- Authority
- DE
- Germany
- Prior art keywords
- typical
- sounds
- words
- mouth movements
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C2209/00—Indexing scheme relating to groups G07C9/00 - G07C9/38
- G07C2209/60—Indexing scheme relating to groups G07C9/00174 - G07C9/00944
- G07C2209/63—Comprising locating means for detecting the position of the data carrier, i.e. within the vehicle or within a certain distance from the vehicle
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein Verfahren zum Autorisieren von
Sprachbefehlen sowie ein System zum Autorisieren von Sprach
befehlen in einer mittels Sprachbefehlen gesteuerten Einrich
tung.
Fortschritte auf dem Gebiet der Spracherkennung ermöglichen
in zunehmendem Maß eine komfortable Steuerung von Funktions
einheiten über Sprachbefehle. Dazu wird über ein Mikrofon
aufgenommene Sprache zunächst im Hinblick auf darin enthalte
ne typische Laute, Worte oder Wortfolgen analysiert und die
festgestellten Laute, Worte oder Wortfolgen werden anschlie
ßend mit in einem Befehlsspeicher abgelegten Befehlen vergli
chen, die in Form von typischen Lauten, Worten oder Wortfol
gen abgelegt sind. Bei Übereinstimmung wird der jeweilige Be
fehl aktiviert.
Aus der EP 0 082 304 A1 ist bekannt, Sprache in Verbindung
mit Gesichtserkennung als biometrische Merkmalskombination zu
verwenden, um eine Person zu identifizieren und dadurch bei
spielsweise zu überprüfen, ob eine Person zur Überwindung ei
nes Zugangskontrollsystems autorisiert ist. Dazu werden
stimmspezifische Merkmale der zu überprüfenden Person, die
ein Schlüsselwort in ein Mikrofon spricht, in einem Korrela
tionsrechner mit früher gespeicherten stimmspezifischen Merk
malen einer bekannten Person verglichen, die dasselbe Schlüs
selwort äußert. Dadurch wird eine erste Korrelationsrate er
halten. Zur gleichen Zeit und zwar wenn ein Schlüsselereignis
in der Äußerung des Schlüsselwortes durch die zu überprüfende
Person entsteht, wird ein Momentanbild der Mundregion der
Person aufgenommen, auf die vorher ein Gittermuster proji
ziert worden ist. Dieses Momentanbild wird mit einem vorher
gespeicherten, entsprechenden Momentanbild der bekannten Per
son verglichen, um eine zweite Korrelationsrate zu erhalten.
Die beiden Korrelationsraten werden analysiert, um festzu
stellen, ob die zu überprüfende Person mit der bekannten Per
son übereinstimmt.
Bei Einrichtungen, die über Sprachbefehle gesteuert werden,
insbesondere wenn solche Einrichtungen in Kraftfahrzeugen
verwendet werden, besteht ein Problem dahingehend, daß eine
andere Person als die Fahrerin oder der Fahrer des Fahrzeugs
Sprachbefehle spricht, die dann als Befehle erkannt werden
und zur Auslösung bestimmter Funktionen führen. Dies kann zu
für den Fahrer verwirrenden oder sogar gefährlichen Zuständen
führen.
Aus der DE 691 01 527 T2, von der in den Oberbegriffen der
unabhängigen Patentansprüche 1 und 4 ausgegangen wird, ist
ein System zum Autorisieren von Sprachbefehlen durch Sprach
erkennung und zusätzlichen Lokalisieren der den Sprachbefehl
sprechenden Person bekannt. Dazu sind wenigstens zwei Mikro
fone vorgesehen, denen eine Spracherkennungseinrichtung zum
Erkennen von Sprachbefehlen nachgeschaltet ist. Weiter ist
den räumlich voneinander entfernten Mikrofonen eine Phasen
schiebereinrichtung nachgeschaltet, mit Hilfe derer der Ort
bestimmt werden kann, an dem eine einen Befehl sprechende
Person sitzt. Auf diese Weise kann jedem erkannten Sprachbe
fehl der Ort bzw. bei Verwendung in einem Kraftfahrzeug der
Sitz zugeordnet werden, von dem aus der Sprachbefehl gegeben
wird. Weiter ist eine Einrichtung vorgesehen, die vorbestimm
te Sprachbefehle nur dann autorisiert, wenn sie von einem
vorbestimmten Sitz aus gegeben werden. Auf diese Weise kann
der Fahrer eines Kraftfahrzeugs davor geschützt werden, dass
das Fahrzeug auf bestimmte, vom Beifahrersitz aus gegebene
Befehle reagiert und den Fahrer überrascht, was zu Gefahren
situationen führen kann.
Eine Eigenart des bekannten Systems liegt darin, dass die a
kustischen Bedingungen, beispielsweise durch Fahrgeräusche,
das Radio oder sonstige Insassengeräusche, erschwert sein
können, so dass insbesondere die Ortserkennung unsicher ist.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und
ein System zum Autorisieren von Sprachbefehlen zu schaffen,
mit denen sowohl der Sprachbefehl als auch der Ort sicher
erkannt werden kann, an dem der Sprachbefehl gesprochen wird.
Der auf das Verfahren gerichtete Teil der Erfindungsaufgabe
wird mit den Merkmalen des Anspruchs 1 gelöst.
Erfindungsgemäß werden von einer Kamera erfasste Mundbewegun
gen mit den akustisch erfassten, typischen Lauten hinsicht
lich einer zeitlichen Übereinstimmung verglichen, so dass die
Identifizierung des Ortes ein hohes Maß an Sicherheit auf
weist.
Gemäß dem Anspruch 2 können die optisch erfassten Mundbewe
gungen zusätzlich dazu verwendet werden, akustisch nicht sau
ber identifizierte Laute zu ersetzen und auf diese Weise die
Befehlserkennungssicherheit zu verbessern.
Der Anspruch 3 kennzeichnet den grundsätzlichen Aufbau des
Systems zur Lösung der Erfindungsaufgabe.
In einer Basisausbaustufe ist nur eine Kamera vorgesehen, die
die Mundbewegungen einer an einem vorbestimmten Ort befindli
chen Person analysiert, so dass beispielsweise nur von diesem
vorbestimmten Ort aus gesprochene Befehle, wenn sie erkannt
werden, autorisiert werden und zur Erzeugung von Steuersigna
len führen.
Der Anspruch 5 kennzeichnet eine Ausführungsform des Systems,
bei der mehrere unterschiedliche Orte optisch erfasst werden,
denen unterschiedliche zulässige Befehle zugeordnet sind.
Mit den Merkmalen des Anspruchs 6 wird die Sicherheit der Be
fehlserkennung verbessert.
Gemäß den Ansprüchen 7 und 8 eignet sich das erfindungsgemä
ße System besonders gut zur Verwendung in Kraftfahrzeugen.
Die Erfindung ist überall dort mit Vorteil einsetzbar, wo
Sprachsteuersysteme eingesetzt werden, bei denen vorbestimmte
Befehle nur dann aktiviert werden sollen, wenn sich eine den
Befehl sprechende Person innerhalb eines vorbestimmten örtli
chen Bereiches befindet.
Die Erfindung kann in Verbindung mit Personenidentifizie
rungssystemen eingesetzt werden, wie sie beispielsweise in
der eingangs genannten EP 0 082 304 A1 beschrieben sind. Auf
diese Weise kann zusätzlich überprüft werden, ob die in einem
vorbestimmten örtlichen Bereich befindliche Person eine auto
risierte Person ist.
Die Erfindung wird im folgenden anhand schematischer Zeich
nungen beispielsweise und mit weiteren Einzelheiten erläu
tert.
Es stellen dar:
Fig. 1 eine Aufsicht auf einen vereinfacht dargstellten
Innenraum eines Kraftfahrzeugs, und
Fig. 2 ein Blockschaltbild des erfindungsgemäßen Systems.
Gemäß Fig. 1 sind im Innenraum eines Kraftfahrzeugs ein Fah
rersitz 2, ein Beifahrersitz 4 und eine Fondsitzbank 6 ange
ordnet.
Im Dachbereich oberhalb der Windschutzscheibe befindet sich
eine Kameraeinrichtung 10 mit Kameras 12 und 14. Der Bildwin
kel Ω1 der Kamera 12 überstreicht einen Bereich, in dem sich
normalerweise der Kopf des Fahrers befindet. Der Bildwinkel
Ω2 der Kamera 14 überstreicht einen Bereich, in dem sich nor
malerweise der Beifahrer befindet.
Im Dachbereich vor dem Fondraum ist eine weitere Kamera 16
angeordnet, deren Bildwinkel Ω3 den mittleren Bereich des
Fondraums überstreicht. Weiter sind Mikrofone 18 und 20 vor
gesehen, wobei das Mikrofon 18 dem Fahrer/Beifahrerraum zuge
ordnet ist und das Mikrofon 20 dem Fondraum zugeordnet ist.
Fig. 2 zeigt ein Blockschaltbild der Anordnung gemäß Fig. 1.
Das Mikrofon 18 ist an eine Sprachanalyseeinrichtung 22 ange
schlossen, in der die empfangene Sprache durch Korrelation
mit in einem Sprachspeicher 24 abgelegten typischen Sprach
lauten und Worten analysiert wird und an deren Ausgang den
analysierten Lauten bzw. Worten entsprechende Signale erzeugt
werden.
Die Kamera 12, die das Gesicht der Fahrerin oder des Fahrers
26 erfaßt, ist mit einer Bewegungsanalyseeinrichtung 26 ver
bunden, in der die von der Kamera 12 erfaßten Mundbewegungen
im Hinblick auf typische Mundbewegungen analysiert werden und
auf ihre Korrelation mit typischen Mundbewegungen zugeordne
ten, im Sprachspeicher 24 vorher gespeicherten typischen Lau
ten oder Worten überprüft werden. Bei positiver Korrelation
erscheinen am Ausgang der Bewegungsanalyseeinrichtung 26 den
typischen Lauten und/oder Worten entsprechende Signale.
Die Ausgangssignale der Sprachanalyseeinrichtung 22 und der
Bewegungsanalyseeinrichtung 26 werden einer Synchronprüfein
richtung 30 zugeführt, die nur solche Laute und/oder Worte
durchläßt und einer Korrelationseinrichtung 32 zuführt, die
zeitgleich aus der Sprachanalyseeinrichtung 22 und der Bewe
gungsanalyseeinrichtung 26 ausgegeben werden.
In der Korrelationseinrichtung 32 werden die empfangenen ty
pischen Laute und/oder Worte mit in einer Sektion I eines Be
fehlsspeichers 34 abgelegten Befehlen verglichen. Bei positi
vem Vergleich wird am Ausgang der Korrelationseinrichtung 32
ein entsprechendes Befehlssignal erzeugt und in einer Steuer
einrichtung 36 in ein entsprechendes Steuersignal zum Steuern
einer Funktion umgewandelt.
Die dem Beifahrer 40 zugeordnete Kamera 14 ist mit einer wei
teren Bewegungsanalyseeinrichtung 42 verbunden, der eine Syn
chronprüfeinrichtung 44 nachgeschaltet ist, die mit der
Sprachanalyseeinrichtung 22 und einer weiteren Korrelations
einrichtung 46 verbunden ist, die mit einer Sektion II des
Befehlsspeichers 34 und mit der Steuereinrichtung 36 verbun
den ist.
Die Kamera 16 des Fondraums ist der Einfachheit halber nicht
in das Blockschaltbild eingezeichnet. Sie ist ähnlich ge
schaltet wie die Kamera 14 bzw. die Kamera 12. Das Fondraum
mikrofon 20 kann unmittelbar an die Sprachanalyseeinrichtung
22 angeschlossen sein.
Die Funktionen der einzelnen entsprechend fortschrittlichen
gängigen Verfahren der Spracherkennung, der Bildverarbeitung
und der Informationskorrelationen arbeitenden Komponenten so
wie deren Aufbau sind an sich bekannt und werden daher nicht
erläutert.
Im folgenden wird daher lediglich das erfindungsgemäße Zusam
menwirken der Komponenten beschrieben:
Es sei angenommen, der Fahrer 26 spräche das Befehlswort "Scheibenwischer an". Das Sprechen dieses Sprachbefehls wird zum einen vom Mikrofon 18 erfaßt und zum anderen von der Ka mera 12. In der Sprachanalyseeinrichtung 22 wird durch Ver gleich mit im Sprachspeicher 24 abgelegter Information ermit telt, daß die Wortgruppe "Scheibenwischer an" gesprochen wur de und am Ausgang der Sprachanalyseeinrichtung 22 erscheint ein entsprechendes Signal. In der Bewegungsanalyseeinrichtung 26 werden die Mundbewegungen analysiert, die dem Sprechen der Wortfolge "Scheibenwischer an" entsprechen und durch Korrelation mit im Sprachspeicher 24 abgelegten Informationen fest gestellt, daß diese Wortfolge gesprochen wurde, so daß am Ausgang der Bewegungsanalyseeinrichtung 26 ein entsprechendes Signal erzeugt wird. In der Synchronprüfeinrichtung 30 wird überprüft, ob beide Signale synchron zueinander sind, so daß das synchrone Signal zu der Korrelationseinrichtung 32 durch gelassen wird, in der überprüft wird, ob dem Signal ein im Befehlsspeicher 34 abgelegter Befehl entspricht. Ist im Be fehlsspeicher 34 ein entsprechender Befehl "Scheibenwischer an" abgelegt, so sendet die Korrelationseinrichtung 32 ein entsprechendes Signal an die Steuereinrichtung 26, in der ein Steuersignal zum Inbetriebsetzen des Scheibenwischers erzeugt wird.
Es sei angenommen, der Fahrer 26 spräche das Befehlswort "Scheibenwischer an". Das Sprechen dieses Sprachbefehls wird zum einen vom Mikrofon 18 erfaßt und zum anderen von der Ka mera 12. In der Sprachanalyseeinrichtung 22 wird durch Ver gleich mit im Sprachspeicher 24 abgelegter Information ermit telt, daß die Wortgruppe "Scheibenwischer an" gesprochen wur de und am Ausgang der Sprachanalyseeinrichtung 22 erscheint ein entsprechendes Signal. In der Bewegungsanalyseeinrichtung 26 werden die Mundbewegungen analysiert, die dem Sprechen der Wortfolge "Scheibenwischer an" entsprechen und durch Korrelation mit im Sprachspeicher 24 abgelegten Informationen fest gestellt, daß diese Wortfolge gesprochen wurde, so daß am Ausgang der Bewegungsanalyseeinrichtung 26 ein entsprechendes Signal erzeugt wird. In der Synchronprüfeinrichtung 30 wird überprüft, ob beide Signale synchron zueinander sind, so daß das synchrone Signal zu der Korrelationseinrichtung 32 durch gelassen wird, in der überprüft wird, ob dem Signal ein im Befehlsspeicher 34 abgelegter Befehl entspricht. Ist im Be fehlsspeicher 34 ein entsprechender Befehl "Scheibenwischer an" abgelegt, so sendet die Korrelationseinrichtung 32 ein entsprechendes Signal an die Steuereinrichtung 26, in der ein Steuersignal zum Inbetriebsetzen des Scheibenwischers erzeugt wird.
Wird die Wortfolge "Scheibenwischer an" vom Beifahrer 40 ge
sprochen, so läuft der geschilderte Vorgang in der Sprachana
lyseeinrichtung 22, der Bewegungsanalyseeinrichtung 42, der
Synchronprüfeinrichtung 44 und der Korrelationseinrichtung 46
ab. In der Korrelationseinrichtung 46 erfolgt keine positive
Korrelation mit einem in der Sektion II des Befehlsspeichers
34 abgelegten Befehl, da in der Sektion II nur solche Befehle
abgelegt sind, die für den Beifahrer erlaubte Befehle sind.
Entsprechend wird die Steuereinrichtung 36 nicht aktiv, wenn
der Beifahrer 40 den Befehl "Scheibenwischer an" spricht.
Durch Segmentierung der in dem Befehlsspeicher 34 abgelegten
Befehle in einzelne Sektionen, die unterschiedlichen Kameras
bzw. örtlichen Bereichen im Fahrzeuginneren zugeordnet sind,
wird somit ermöglicht, daß Sprachbefehle nur dann ausgeführt
werden, wenn sie aus einem, dem jeweiligen Sprachbefehl zuge
ordneten räumlichen Bereich des Fahrzeuginnenraums kommen.
Dabei können bestimmte Befehle durchaus allen Bereichen des
Fahrzeuginnenraums zugeordnet sein beispielsweise "Innenbe
leuchtung an" oder "Radio aus" und so weiter. Weiter ist es
möglich, daß ein Befehl "Temperatur höher" unterschiedliche
Funktionen auslöst, je nachdem, ob er vom Fahrer, Beifahrer
oder aus dem Fond gesprochen wird. In einer Heizungs-
/Klimaanlage werden dann entsprechende Funktionen ausgelöst,
die den örtlichen Bereichen zugeordnet sind.
Es versteht sich weiter, daß der Fahrer beispielsweise mit
tels einer nicht dargestellten Bedieneinheit Befehle einzel
nen örtlichen Bereichen zuordnen kann; beispielsweise kann er
Telefonfunktionen für den gesamten Innenraum freigeben, nur
für den Beifahrer freigeben usw.
In der bzw. den Synchronprüfeinrichtungen 30, 44 können ver
stümmelte Worte, die bezüglich ihrer Synchronisierung noch
erkennbar sind, die aber nicht vollständig aufgenommen sind,
beispielsweise weil der Mund der sprechenden Person teilweise
verdeckt wird oder ein Geräusch das gesprochene Wort über
deckt, durch gegenseitige Korrelation ergänzt werden, so daß
die Qualität der der Korrelationseinrichtung 32 zugeordneten
Information bzw. Worte verbessert ist.
Die Erfindung kann in vielfältiger Weise abgeändert werden.
Beispielsweise können die den unterschiedlichen Kameras zuge
ordneten Sprachanalyseeinrichtungen, Synchronprüfeinrichtun
gen und Korrelationseinrichtungen in einem gemeinsamen Hard
ware-Baustein zusammengefaßt sein, wobei die von der jeweili
gen Kamera erfaßte optische Information hinsichtlich ihrer
Kamerazuordnung gekennzeichnet wird. Die verschiedenen Sek
tionen des Befehlsspeichers 34 können dadurch ausgebildet
sein, daß den insgesamt im Befehlsspeicher 34 befindlichen
Befehlen Informationen hinsichtlich der jeweiligen örtlichen
Bereiche bzw. Kameras zugefügt sind. Die Synchronprüfung zwi
schen optischen und akustischen Informationen kann bereits
vor der Analyse hinsichtlich vorbestimmter Sprachbausteine
erfolgen, da zwischen der gesprochenen Sprache und den erfaß
ten Mundbewegungen Grundkorrelationen bestehen beispielsweise
zwischen Sprachbeginn und Beginn einer Mundbewegung. Der In
nenraum des Fahrzeugs kann in mehrere Bereiche aufgeteilt
sein, beispielsweise der Fondraum in drei nebeneinander ange
ordnete Bereiche. Das System kann auf den Außenraum erweitert
werden, der von einer oder mehreren Kameras bereichsweise
überdeckt wird.
In vereinfachter Ausführungsform kann das System dazu verwen
det werden festzustellen, ob eine Sprache überhaupt von einer
im Sichtfeld einer Kamera befindlichen Person ausgeht, indem
eine Synchronizität zwischen akustisch aufgenommener Sprache
und optisch erfaßter Mundbewegung festgestellt oder nur fest
gestellt wird, ob sich ein Mund bewegt. Liegt keine Mundbewe
gung vor, so wird eine Sprachauswertung gar nicht aktiviert,
so daß Rechnerleistung eingespart bzw. nicht unnötig ver
braucht wird.
Claims (7)
1. Verfahren zum Autorisieren von Sprachbefehlen, wobei
vorbestimmten Sprachbefehlen wenigstens ein vorbestimmter Ort
zugeordnet wird, an dem sich eine die Befehle sprechende Per
son befinden muß, damit die Sprachbefehle ausgeführt werden,
Sprache akustisch aufgenommen und hinsichtlich typischer Lau
te analysiert wird, um einen Sprachbefehl zu identifizieren,
der Ort festgestellt wird, an dem sich die den Sprachbefehl
sprechende Person befindet und
die Ausführung des Sprachbefehls freigegeben wird, wenn der identifizierte Sprachbefehl zu dem dem festgestellten Ort zu geordneten, vorbestimmten Sprachbefehlen gehört,
dadurch gekennzeichnet, dass
der Ort festgestellt wird, indem
eine Kamera Mundbewegungen einer an wenigstens einem vorbe stimmten Ort befindlichen Person erfasst,
die erfassten Mundbewegungen hinsichtlich typischer Mundbewegungen analysiert werden,
die typischen Mundbewegungen und die typischen Laute hin sichtlich ihrer zeitlichen Übereinstimmung verglichen werden und
bei positivem Vergleich der Ort der von der Kamera erfassten Person als der Ort identifiziert wird, an dem sich die den Sprachbefehl sprechende Person befindet.
die Ausführung des Sprachbefehls freigegeben wird, wenn der identifizierte Sprachbefehl zu dem dem festgestellten Ort zu geordneten, vorbestimmten Sprachbefehlen gehört,
dadurch gekennzeichnet, dass
der Ort festgestellt wird, indem
eine Kamera Mundbewegungen einer an wenigstens einem vorbe stimmten Ort befindlichen Person erfasst,
die erfassten Mundbewegungen hinsichtlich typischer Mundbewegungen analysiert werden,
die typischen Mundbewegungen und die typischen Laute hin sichtlich ihrer zeitlichen Übereinstimmung verglichen werden und
bei positivem Vergleich der Ort der von der Kamera erfassten Person als der Ort identifiziert wird, an dem sich die den Sprachbefehl sprechende Person befindet.
2. Verfahren nach Anspruch 1, wobei
typischen Mundbewegungen typische Laute zugeordnet sind und
akustisch schlecht aufgenommene Laute durch typische Laute
ersetzt werden, die zeitgleich aufgenommenen, typischen Mund
bewegungen zugeordnet sind.
3. System zum Autorisieren von Sprachbefehlen in einer mit
tels Sprachbefehlen gesteuerten Einrichtung, enthaltend
ein Mikrofon (18, 20) zur Aufnahme von Sprache,
eine dem Mikrofon nachgeschaltete Sprachanalyseeinrichtung (22) zur Analyse der Sprache hinsichtlich typischer Laute und/oder Worte,
eine Korrelationseinrichtung (32, 46) und einen Befehlsspei cher (34), wobei die Korrelationseinrichtung die analysierten typischen Laute und/oder Worte mit in dem Befehlsspeicher ge speicherten Befehlen korreliert, um einen Sprachbefehl zu i dentifizieren und für dessen Ausführung an eine Steuerein richtung (36) weiterzugeben,
gekennzeichnet durch
eine Kameraeinrichtung (12, 14, 16), die Mundbewegungen einer an einem vorbestimmten Ort befindlichen Person aufnimmt, eine der Kamera nachgeschalteten Bewegungsanalyseeinrichtung (28, 42), die die aufgenommenen Mundbewegungen hinsichtlich typischer Mundbewegungen und/oder diesen zugeordneten typi schen Lauten und/oder Worten analysiert,
eine Synchronprüfeinrichtung (30, 44), die die typischen Mundbewegungen und/oder die aus diesen abgeleiteten typischen Laute und/oder Worte hinsichtlich ihrer zeitlichen Überein stimmung mit den aus der Sprachanalyse hergeleiteten typi schen Lauten und/oder Worten vergleicht und die typischen Laute und/oder Worte bei Übereinstimmung zu der Korrelations einrichtung (32, 46) weiterleitet.
ein Mikrofon (18, 20) zur Aufnahme von Sprache,
eine dem Mikrofon nachgeschaltete Sprachanalyseeinrichtung (22) zur Analyse der Sprache hinsichtlich typischer Laute und/oder Worte,
eine Korrelationseinrichtung (32, 46) und einen Befehlsspei cher (34), wobei die Korrelationseinrichtung die analysierten typischen Laute und/oder Worte mit in dem Befehlsspeicher ge speicherten Befehlen korreliert, um einen Sprachbefehl zu i dentifizieren und für dessen Ausführung an eine Steuerein richtung (36) weiterzugeben,
gekennzeichnet durch
eine Kameraeinrichtung (12, 14, 16), die Mundbewegungen einer an einem vorbestimmten Ort befindlichen Person aufnimmt, eine der Kamera nachgeschalteten Bewegungsanalyseeinrichtung (28, 42), die die aufgenommenen Mundbewegungen hinsichtlich typischer Mundbewegungen und/oder diesen zugeordneten typi schen Lauten und/oder Worten analysiert,
eine Synchronprüfeinrichtung (30, 44), die die typischen Mundbewegungen und/oder die aus diesen abgeleiteten typischen Laute und/oder Worte hinsichtlich ihrer zeitlichen Überein stimmung mit den aus der Sprachanalyse hergeleiteten typi schen Lauten und/oder Worten vergleicht und die typischen Laute und/oder Worte bei Übereinstimmung zu der Korrelations einrichtung (32, 46) weiterleitet.
4. System nach Anspruch 3, dadurch gekennzeichnet, dass
die Kameraeinrichtung (12, 14, 16) derart ausgebildet ist,
daß die Mundbewegungen von an unterschiedlichen vorbestimmten
Orten befindlichen Personen erfassbar sind und den unter
schiedlichen Orten vorbestimmte zulässige Befehle zugeordnet
sind.
5. System nach Anspruch 3 oder 4, dadurch gekennzeichnet,
dass eine Speichereinrichtung (24) vorgesehen ist, in der typischen
Mundbewegungen zugeordnete typische Laute und/oder
Worte abgelegt sind, und die Korrelationseinrichtung (32, 46)
bei schlechter Qualität der akustisch aufgenommenen typischen
Laute und/oder Worte die den zeitgleich aufgenommenen Mundbe
wegungen zugeordneten typischen Laute und/oder Worte weiter
leitet.
6. System nach einem der Ansprüche 3 bis 5,
wobei die Kameraeinrichtung (12, 14, 16) den Fahrer- und Bei
fahrerraum in einem Kraftfahrzeug erfaßt und die Steuersigna
le zur Steuerung von Funktionen vorgesehen sind.
7. System nach Anspruch 6, wobei eine Kamera (16) den Fond
raum des Kraftfahrzeugs erfaßt.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19962218A DE19962218C2 (de) | 1999-12-22 | 1999-12-22 | Verfahren und System zum Autorisieren von Sprachbefehlen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19962218A DE19962218C2 (de) | 1999-12-22 | 1999-12-22 | Verfahren und System zum Autorisieren von Sprachbefehlen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19962218A1 DE19962218A1 (de) | 2001-07-05 |
DE19962218C2 true DE19962218C2 (de) | 2002-11-14 |
Family
ID=7933940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19962218A Expired - Fee Related DE19962218C2 (de) | 1999-12-22 | 1999-12-22 | Verfahren und System zum Autorisieren von Sprachbefehlen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19962218C2 (de) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10217778A1 (de) | 2002-04-18 | 2003-11-06 | Volkswagen Ag | Kommunikationseinrichtung zur Übertragung akustischer Signale in einem Kraftfahrzeug |
DE10120513C1 (de) | 2001-04-26 | 2003-01-09 | Siemens Ag | Verfahren zur Bestimmung einer Folge von Lautbausteinen zum Synthetisieren eines Sprachsignals einer tonalen Sprache |
DE10156954B9 (de) * | 2001-11-20 | 2005-07-14 | Daimlerchrysler Ag | Bildgestützte adaptive Akustik |
US20030154084A1 (en) * | 2002-02-14 | 2003-08-14 | Koninklijke Philips Electronics N.V. | Method and system for person identification using video-speech matching |
DE10208465A1 (de) * | 2002-02-27 | 2003-09-18 | Bsh Bosch Siemens Hausgeraete | Elektrisches Gerät, insbesondere Dunstabzugshaube |
US8214219B2 (en) | 2006-09-15 | 2012-07-03 | Volkswagen Of America, Inc. | Speech communications system for a vehicle and method of operating a speech communications system for a vehicle |
DE102007002905A1 (de) * | 2007-01-19 | 2008-07-24 | Siemens Ag | Verfahren und Vorrichtung zur Aufnahme eines Sprachsignals |
DE102009051508B4 (de) * | 2009-10-30 | 2020-12-03 | Continental Automotive Gmbh | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung |
WO2013097075A1 (en) * | 2011-12-26 | 2013-07-04 | Intel Corporation | Vehicle based determination of occupant audio and visual input |
DE102016003401B4 (de) * | 2016-03-19 | 2021-06-10 | Audi Ag | Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug |
DE102021128260A1 (de) | 2021-10-29 | 2023-05-04 | Bayerische Motoren Werke Aktiengesellschaft | Sprachsteuerung an Bord eines Fahrzeugs |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0082304A1 (de) * | 1981-11-20 | 1983-06-29 | Siemens Aktiengesellschaft | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens |
DE69101527T2 (de) * | 1990-08-16 | 1994-07-14 | Fujitsu Ten Ltd | Spracherkennungseinrichtung für ein Fahrzeug mit einer Mikrophonanordnung zur Lokalisierung des Sitzes, von welchem ein Befehl kommt. |
-
1999
- 1999-12-22 DE DE19962218A patent/DE19962218C2/de not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0082304A1 (de) * | 1981-11-20 | 1983-06-29 | Siemens Aktiengesellschaft | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens |
DE69101527T2 (de) * | 1990-08-16 | 1994-07-14 | Fujitsu Ten Ltd | Spracherkennungseinrichtung für ein Fahrzeug mit einer Mikrophonanordnung zur Lokalisierung des Sitzes, von welchem ein Befehl kommt. |
Also Published As
Publication number | Publication date |
---|---|
DE19962218A1 (de) | 2001-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102004044771B4 (de) | Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug | |
DE19962218C2 (de) | Verfahren und System zum Autorisieren von Sprachbefehlen | |
DE3238855C2 (de) | Spracherkennungseinrichtung | |
DE4416507C2 (de) | Verfahren zur Erkennung einer Benutzungsberechtigung für ein Fahrzeug | |
DE102016220979A1 (de) | Verfahren und Vorrichtung zum Steuern eines Betriebs eines Seiten- und Hecküberwachungs-Kamerasystems | |
DE102018207408A1 (de) | Ursachenbestimmung für ein Störgeräusch eines Kraftfahrzeugs | |
DE102012223481A1 (de) | Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs | |
DE102012203795A1 (de) | Vorrichtung zum Einstellen und/oder Nachjustieren eines Spiegels in einem Kraftfahrzeug | |
DE102014207828A1 (de) | Verfahren zur Bereitstellung einer Diagnosenachricht bei einem Schienenfahrzeug | |
DE102019211200A1 (de) | Verfahren zum Erkennen einer Fehlbenutzung eines Gurtsystems eines Kraftfahrzeugs, sowie Steuergerät dafür und Kraftfahrzeug | |
DE102013006086A1 (de) | Augenbewegungsgesteuertes Authentifizierungssystem sowie Verfahren zur augenbewegungsgesteuerten Authentifizierung | |
WO2017157684A1 (de) | Fortbewegungsmittel, system und verfahren zur anpassung einer länge einer erlaubten sprechpause im rahmen einer spracheingabe | |
DE102017206876B4 (de) | Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Kraftfahrzeug undSprachsteuerungssystem | |
DE102018217634A1 (de) | Verfahren zum Betrieb eines Fahrzeugs sowie Fahrzeug | |
DE102016008339A1 (de) | Verfahren zur Identifikation eines Fahrzeugnutzers in einem Fahrzeug | |
DE102017103391A1 (de) | Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs | |
DE102019008743A1 (de) | Verfahren und System zur Aufnahme von Personen im lnnenraum eines Fahrzeuges | |
EP1610302A1 (de) | Verfahren zur sprecherabhängigen Spracherkennung in einem Kraftfahrzeug | |
DE102014210426A1 (de) | Vorrichtung und Verfahren zur Steuerung eines Rückhaltesystems in einem Kraftfahrzeug | |
EP4419397A1 (de) | Verfahren zum authentifizieren des nutzers eines kraftfahrzeugs | |
DE102016011141A1 (de) | Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges | |
DE102017201938A1 (de) | Verfahren und Vorrichtung zum Ausführen einer elektronischen Geldüberweisung, um ein Parkentgelt zu bezahlen | |
WO2000030905A1 (de) | Benutzererkennende diebstahlschutzeinrichtung | |
DE102018003127A1 (de) | Vorrichtung und Verfahren zum Betrieb eines Assistenzsystems | |
WO2019219247A1 (de) | Vorrichtung, system und verfahren zur automatischen konfiguration eines fahrzeugs, sowie entsprechendes fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |