DE102008021954A1 - Verfahren zum Betrieb eines elektronischen Assistenzsystems - Google Patents
Verfahren zum Betrieb eines elektronischen Assistenzsystems Download PDFInfo
- Publication number
- DE102008021954A1 DE102008021954A1 DE102008021954A DE102008021954A DE102008021954A1 DE 102008021954 A1 DE102008021954 A1 DE 102008021954A1 DE 102008021954 A DE102008021954 A DE 102008021954A DE 102008021954 A DE102008021954 A DE 102008021954A DE 102008021954 A1 DE102008021954 A1 DE 102008021954A1
- Authority
- DE
- Germany
- Prior art keywords
- phoneme
- data
- records
- context
- processing stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013439 planning Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000012913 prioritisation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betrieb eines elektronischen Assistenzsystems mit einer akustischen Aufnahmeeinrichtung, an der gesprochene Bedieneranweisungen aufgenommen werden können und mit einem Spracherkennungsmodul weiterverarbeitet werden, wobei in einer ersten Verarbeitungsstufe des Spracherkennungsmoduls die gesprochenen Bedieneranweisungen mit in einer Datenbank gespeicherten Phonem-Datensätzen verglichen werden, und wobei die Phonem-Datensätze entsprechend ihrer jeweiligen akustischen Übereinstimmungsrate mit einem Übereinstimmungswert bewertet werden, wobei in einer zweiten Verarbeitungsstufe des Spracherkennungsmoduls zumindest für einen Teil der Phonem-Datensätze die Inhalte der Phonem-Datensätze mit den in zumindest einer Kontextdatenbank gespeicherten Kontextdaten verglichen werden, wobei der in der ersten Verarbeitungsstufe ermittelte Übereinstimmungswert der Phonem-Datensätze in Abhängigkeit vom Ergebnis des inhaltlichen Kontextvergleichs modifiziert wird, und wobei zumindest der Phonem-Datensatz mit dem besten modifizierten Übereinstimmungswert zur Weiterverarbeitung weitergegeben wird.
Description
- Die Erfindung betrifft ein Verfahren zum Betrieb eines elektronischen Assistenzsystems mit Spracherkennungsmodul nach dem Oberbegriff des Anspruchs 1.
- Zur Eingabe von Eingabedaten an elektronischen Assistenzsystemen werden üblicherweise Tastaturen benutzt, an denen der Benutzer die Eingabedaten in alphanumerischer Form eingibt. Seit einigen Jahren finden auch Assistenzsysteme mit Spracherkennungsmodulen immer breitere Verwendung. Bei diesen Assistenzsystemen mit Spracherkennungsmodul ist die Eingabeschnittstelle mit einer Spracherkennung ausgestattet. Dies bedeutet, dass der Benutzer seine Bedieneranweisungen, d. h. seine Eingabedaten ganz allgemein, in eine Aufnahmeeinrichtung, beispielsweise ein Mikrofon des Assistenzsystems, hineinspricht, und diese Bedieneranweisung dort aufgenommen wird. Im Spracherkennungsmodul werden die gesprochenen Bedieneranweisungen dann weiterverarbeitet und interpretiert, um den Inhalt der gesprochenen Bedieneranweisung zu erkennen und in elektronischer Form weiterverarbeiten zu können. Die bekannten Spracherkennungsmodule von elektro nischen Assistenzsystemen beschränken sich gemäß dem vorbekannten Stand der Technik darauf, in einer ersten Verarbeitungsstufe die gesprochene und mit der Aufnahmeeinrichtung aufgenommene Bedieneranweisung mit in einer Datenbank gespeicherten Phonem-Datensätzen zu vergleichen. Bei den Phonem-Datensätzen kann es sich beispielsweise um Akustikdateien, insbesondere WAV-Dateien oder Phonem-Vektoren, handeln.
- In jedem Phonem-Datensatz ist dabei zugleich auch noch ein bestimmter Inhalt in elektronischer Form gespeichert. Bei ausreichender Übereinstimmung zwischen der aufgenommenen Bedieneranweisung und dem Phonem-Datensatz wird dieser Inhalt dann zur Weiterverarbeitung weitergegeben.
- Dies bedeutet mit anderen Worten, dass bei den bekannten Spracherkennungsmodulen immer der Phonem-Datensatz mit dem darin gespeicherten Inhalt zur Weiterverarbeitung ausgewählt wird, der in der ersten Verarbeitungsstufe die höchste akustische Übereinstimmung ergeben hat. Probleme ergeben sich aus dieser Art der Spracherkennung immer dann, wenn ähnlich klingende Worte bzw. Spracheingaben voneinander zu unterscheiden sind. Aufgrund der häufig sehr unterschiedlichen Sprechweise der verschiedenen Benutzer kann es dann sehr leicht zu vielen Interpretationen kommen, so dass das Spracherkennungsmodul nicht den vom Benutzer eigentlich gewünschten Inhalt der Spracheingabe erkennt.
- Ausgehend von diesem Stand der Technik ist es deshalb Aufgabe der vorliegenden Erfindung, ein Verfahren zum Betrieb eines elektronischen Assistenzsystems vorzuschlagen, mit dem die Treffergenauigkeit des Spracherkennungsmoduls erhöht werden kann.
- Diese Aufgabe wird durch ein Verfahren nach der Lehre des Anspruchs 1 gelöst.
- Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
- Das erfindungsgemäße Verfahren beruht auf dem Grundgedanken, dass das Spracherkennungsmodul mit einer zweiten Verarbeitungsstufe erweitert wird. In dieser zweiten Verarbeitungsstufe werden zumindest für einen Teil der Phonem-Datensätze die darin jeweils gespeicherten Inhalte mit den in einer Kontextdatenbank gespeicherten Kontextdaten verglichen. Der in der ersten Verarbeitungsstufe ermittelte Übereinstimmungswert, der allein die akustische Übereinstimmung zwischen der gesprochenen Bedieneranweisung und dem Phonem-Datensatz charakterisiert, kann dann in Abhängigkeit von dem in der zweiten Verarbeitungsstufe vorgenommenen Kontextvergleich modifiziert werden. Zumindest der Phonem-Datensatz mit dem besten modifizierten Übereinstimmungswert wird dann zur Weiterverarbeitung in die anderen Teile des Assistenzsystems weitergegeben.
- Durch die erfindungsgemäße Erweiterung des Spracherkennungsmoduls mit der zweiten Verarbeitungsstufe wird erreicht, dass die Übereinstimmung der vom Benutzer gesprochenen Bedieneranweisung nicht mehr nur noch rein akustisch bewertet wird, sondern auch eine inhaltliche Kontextbewertung erfolgt. Dadurch wird es möglich, dass beispielsweise Phonem-Datensätze, die zwar eine relativ hohe akustische Übereinstimmung ergeben haben, aber aufgrund ihres Kontextes sehr unwahrscheinlich erscheinen, einen entsprechend schlechteren Übereinstimmungswert erhalten und somit mit entsprechend geringerer Wahrscheinlichkeit zur Weiterverarbeitung vorgesehen werden. Letztendlich kann durch Anwendung des erfindungsgemäßen Verfahrens die Trefferwahrscheinlichkeit bei der Erkennung von gesprochenen Bedieneranweisungen erheblich verbessert werden.
- Die erfindungsgemäße Verarbeitung der Phonem-Datensätze in der zweiten Verarbeitungsstufe zur Abarbeitung des inhaltlichen Kontextvergleichs stellt einen durchaus erheblichen Zusatzaufwand bei der Datenverarbeitung dar. Um den zusätzlichen Datenverarbeitungsaufwand insgesamt auf ein tolerierbares Maß zu begrenzen ist es deshalb besonders vorteilhaft, wenn nicht alle Phonem-Datensätze dem Kontextvergleich in der zweiten Verarbeitungsstufe unterzogen werden, sondern nur die Phonem-Datensätze an die zweite Verarbeitungsstufe zum inhaltlichen Kontextvergleich weitergegeben werden, deren in der ersten Verarbeitungsstufe ermittelte Übereinstimmungswert oberhalb eines vorgegebenen Grenzwerts liegt. Im Ergebnis wird dadurch also erreicht, dass alle Phonem-Datensätze, die beim akustischen Vergleich in der ersten Verarbeitungsstufe keine ausreichend guten Ergebnisse erbracht haben, bereits vor dem Kontextvergleich in der zweiten Verarbeitungsstufe ausgefiltert werden.
- In der Grundform des erfindungsgemäßen Verfahrens wird jeweils nur der Phonem-Datensatz mit dem jeweils besten modifizierten Übereinstimmungswert zur Weiterverarbeitung weitergegeben. In der Weiterverarbeitung kann beispielsweise dann der im Phonem-Datensatz gespeicherte Inhalt automatisch zur Weiterverarbeitung ausgewählt und in nachgelagerten Funktionsmodulen weiterverarbeitet werden. Vielfach ist es jedoch wünschenswert, dass nicht nur der Phonem-Datensatz mit der besten Bewertung weitergegeben wird. Beispielsweise ist es bei elektronischen Assistenzsystemen vielfach üblich, dass dem Benutzer eine Gruppe von Treffern mit den relativ höchsten Bewertungen zur Auswahl angezeigt wird, so dass die tatsächliche Auswahl durch den Benutzer dann noch bestätigt werden muss. Im Hinblick auf das erfindungsgemäße Verfahren bedeutet dies, dass dann mehrere Phonem-Datensätze mit den relativ höchsten modifizierten Übereinstimmungswerten nach der zweiten Verarbeitungsstufe zur Weiterverarbeitung weitergegeben werden, um dem Benutzer beispielsweise die Auswahl eines dieser Phonem-Datensätze für die Weiterverarbeitung anzubieten. Dies kann beispielsweise dadurch erfolgen, dass dem Benutzer die Inhalte der Phonem-Datensätze mit den relativ höchsten modifizierten Übereinstimmungs werten angezeigt werden und der Benutzer dann durch eine geeignete Auswahl einen der Phonem-Datensätze bestätigt.
- Um die Auswahl durch den Benutzer zu erleichtern, ist es besonders vorteilhaft, wenn die Phonem-Datensätze mit den relativ höchsten modifizierten Übereinstimmungswerten in einer Liste sortiert werden. Die Sortierung der Phonem-Datensätze in der Liste kann dabei nach Größe ihres jeweiligen modifizierten Übereinstimmungswertes erfolgen. Dies bedeutet mit anderen Worten, dass an der ersten Stelle der Liste jeweils der Phonem-Datensatz mit dem besten modifizierten Übereinstimmungswert angeordnet ist und sich daran die Phonem-Datensätze abgestuft nach ihrem jeweiligen modifizierten Übereinstimmungswert sortiert anschließen. Die Größe der Liste kann dabei vielfach durch eine bestimmte Anzahl von in der Liste auszunehmenden Phonem-Datensätzen definiert sein. Enthält die Liste beispielsweise fünf Speicherplätze, werden in der Liste die fünf Phonem-Datensätze aufgenommen, die die fünf höchsten modifizierten Übereinstimmungswerte aufweisen.
- In welcher Weise der Kontextvergleich in der zweiten Verarbeitungsstufe vorgenommen wird, ist grundsätzlich beliebig. Nach einer ersten bevorzugten Verfahrensvariante sind in der Kontextdatenbank frühere Eingaben der Daten des Benutzers, die vom Benutzer für die Benutzung bestätigt wurden, gespeichert. Dem liegt die Grundüberlegung zugrunde, dass zu einem früheren Zeitpunkt vom Benutzer bestätigte Eingabedaten mit relativ hoher Wahrscheinlichkeit erneut von dem gleichen Benutzer eingegeben werden. Mit diesem in der Kontextdatenbank gespeicherten und in der Vergangenheit bereits mindestens einmal bestätigten Eingabedaten, wird der Inhalt der Phonem-Datensätze dann in der zweiten Verarbeitungsstufe verglichen. Für die Phonem-Datensätze, für die eine Übereinstimmung des Inhalts mit den in der Kontextdatenbank gespeicherten früheren Eingabedaten festgestellt wird, wird der Übereinstimmungswert erhöht, um die Auswahl dieser Phonem-Datensätze entsprechend wahrscheinlicher zu machen.
- Welchen Zweck das elektronische Assistenzsystem in seiner Grundfunktion erfüllt, ist wiederum grundsätzlich beliebig, da die Auswertung von akustischen Spracheingaben für eine Vielzahl von unterschiedlichen Funktionssystemen von Interesse ist. Von besonders großer Bedeutung für den Benutzerkomfort ist die elektronische Spracherkennung jedoch für Navigationssysteme, insbesondere mobile bzw. fest eingebaute Navigationsgeräte. Denn beim Betrieb solcher Navigationssysteme muss der Benutzer eine Vielzahl von Eingaben machen, wobei die Tastatureingabe aufgrund der Nutzung, beispielsweise in einem Kraftfahrzeug, vielfach als sehr unbequem empfunden wird.
- Im Hinblick auf die Benutzung des erfindungsgemäßen Verfahrens beim Betrieb von Navigationssystemen ist es weiterhin besonders vorteilhaft, wenn eine Kontextdatenbank benutzerspezifische Adressdaten enthält. Dabei kann es sich beispielsweise um das elektronische Adressbuch eines Benutzers handeln. Denn alle im elektronischen Adressbuch des Benutzers gespeicherten Adressen weisen eine entsprechend hohe Wahrscheinlichkeit als mögliche Zielpunkte für das Navigationssystem auf.
- Weiterhin ist es bei Betrieb des erfindungsgemäßen Verfahrens auf ein Navigationssystem besonders vorteilhaft, wenn eine Kontextdatenbank die Startpunkte bzw. Zielpunkte enthält, die bereits in der Vergangenheit Grundlage einer Routenplanung gewesen sind. Denn bestimmte Start- oder Zielpunkte werden vom Benutzer immer wieder angefahren und sind deshalb bei der späteren Routenplanung als auch besonders wahrscheinliche Treffer anzusehen.
- Gemäß einer weiteren Variante ist außerdem noch eine Kontextdatenbank vorhanden, in der Daten zur Beschreibung der Bedeutung von Städten enthalten sind. Dabei kann es sich beispielsweise um die Einwohnerzahl und/oder die Stadtfläche einer Stadt handeln. Denn die Auswahl einer Stadt mit großer Einwohnerzahl bzw. großer Stadtfläche ist erheblich wahrscheinlicher, als beispielsweise die Auswahl eines kleinen Dorfes. Alternativ zur Verwendung des erfindungsgemäßen Verfahrens auf einem Navigationssystem kann das elektronische Assistenzsystem auch in der Art eines Medienabspielgeräts, insbesondere in der Art eines MP3-Abspielgeräts, ausgebildet sein. Auch hier muss der Benutzer vielfach mit sehr geringem Eingabekomfort seine Eingabedaten eingeben, so dass die Verbesserung des Eingabekomforts durch entsprechende Spracheingaben bei hoher Trefferwahrscheinlichkeit von großer Bedeutung ist.
- Beim Betrieb des Verfahrens auf einem Medienabspielgerät kann die Kontextdatenbank bevorzugt Daten zu bevorzugten Musikstücken, und/oder Daten zur benutzerspezifischen Bewertung von Musikstücken, und/oder Daten zum Zeitpunkt der Abspeicherung von Musikstücken enthalten. Denn die vom Benutzer favorisierten Musikstücke, die beispielsweise in Favoritenlisten gespeichert sind, bzw. die Musikstücke, die vom Benutzer eine hohe benutzerspezifische Bewertung erhalten haben oder erst vor kurzer Zeit auf dem Medienabspielgerät abgespeichert wurden, weisen eine deutlich höhere Trefferwahrscheinlichkeit auf als andere Musikstücke.
- Gemäß einer weiteren Funktionsalternative kann das erfindungsgemäße Verfahren auch auf Fahrkartenautomaten installiert werden. Auch hier ist wiederum die Eingabe von einer Vielzahl von Eingabedaten durch den Benutzer notwendig, der zudem vielfach völlig ungeübt ist.
- Beim Kontextvergleich auf einem Fahrkartenautomat können die Inhalte der Phonem-Datensätze dann mit den Daten von bevorzugten Zielbahnhöfen, bzw. mit Daten von nahe gelegenen Zielbahnhöfen oder mit den Daten zur Größe oder Bedeutung von Zielbahnhöfen verglichen werden.
- Verschiedene Aspekte der Erfindung sind in der Zeichnung schematisiert dargestellt und werden nachfolgend beispielhaft erläutert.
- Es zeigen:
-
1 : eine sortierte Ergebnisliste mit den Inhalten mehrerer Phonem-Datensätze nach Durchlaufen der ersten Verarbeitungsstufe; -
2 : die Ergebnisliste gemäß1 nach Durchlaufen der zweiten Verarbeitungsstufe. -
1 zeigt eine Liste01 , in deren ersten Spalte fünf Ortsnamen angeschrieben sind. Bei diesen Ortsnamen handelt es sich um die Inhalte von Phonem-Datensätzen, die beim akustischen Vergleich mit einer Spracheingabe an einem Navigationssystem als mögliche Treffer in einer ersten Verarbeitungsstufe durch akustischen Vergleich erkannt worden sind. Entsprechend dem Übereinstimmungswert der akustischen Übereinstimmung wurde der Ort „Würzbach” als wahrscheinlichster Treffer identifiziert und deshalb mit der Priorisierung 1 versehen. Der Treffer „Mühlburg” weist dagegen den geringsten akustischen Übereinstimmungswert auf und erhält damit die schlechteste Priorisierung, nämlich 5 Punkte. -
2 zeigt die Liste01a , nachdem die erkannten Orte in einer zweiten Verarbeitungsstufe einen inhaltlichen Kontextvergleich durchlaufen haben. Bei diesem inhaltlichen Kontextvergleich wurde festgestellt, dass der Benutzer den Ort „Würzburg” bereits sehr häufig als Ziel seiner Routenplanung eingegeben hat und außerdem eine Vielzahl von Adressen in seinem persönlichen Adressbuch unter der Stadt „Würzburg” gespeichert sind. Aufgrund dieses inhaltlichen Kontextvergleiches wird der Treffer „Würzburg” mit einem höheren Übereinstimmungswert modifiziert und erhält nunmehr die höchste Priorisierung 1. Auch die anderen Treffer der Liste 1 werden einem inhaltlichen Kontextvergleich unterzogen und die jeweiligen Übereinstimmungswerte modifiziert, so dass „Mühlburg” nach dieser Modifikation statt der Priorisierung 5 die Priorisierung 3 und „Würzbach” statt der Priorisierung 1 die Priorisierung 4 erhält. Die Orte gemäß der Liste 1 werden dann anschließend zur Weiterverarbeitung weitergegeben und können dem Benutzer eines Navigationssystems in der entsprechenden Reihenfolge als mögliche Zielorte angezeigt werden.
Claims (13)
- Verfahren zum Betrieb eines elektronischen Assistenzsystems mit einer akustischen Aufnahmeeinrichtung, an der gesprochene Bedieneranweisungen aufgenommen werden können und mit einem Spracherkennungsmodul weiterverarbeitet werden, wobei in einer ersten Verarbeitungsstufe des Spracherkennungsmoduls die gesprochenen Bedieneranweisungen mit in einer Datenbank gespeicherten Phonem-Datensätzen verglichen werden, und wobei die Phonem-Datensätze entsprechend ihrer jeweiligen akustischen Übereinstimmungsrate mit einem Übereinstimmungswert bewertet werden, dadurch gekennzeichnet, dass in einer zweiten Verarbeitungsstufe des Spracherkennungsmoduls zumindest für einen Teil der Phonem-Datensätze die Inhalte der Phonem-Datensätze mit den in zumindest einer Kontextdatenbank gespeicherten Kontextdaten verglichen werden, wobei der in der ersten Verarbeitungsstufe ermittelte Übereinstimmungswert der Phonem-Datensätze in Abhängigkeit vom Ergebnis des inhaltlichen Kontextvergleichs modifiziert wird, und wobei zumindest der Phonem-Datensatz mit dem besten modifizierten Übereinstimmungswert zur Weiterverarbeitung weitergegeben wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nur die Phonem-Datensätze an die zweite Verarbeitungsstufe zum inhaltlichen Kontextvergleich weitergegeben werden, deren in der ersten Verarbeitungsstufe ermittelter Übereinstimmungswert oberhalb eines vorgegebenen Grenzwerts liegt.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mehrere Phonem-Datensätze mit den relativ höchsten modifizierten Übereinstimmungswerten nach der zweiten Verarbeitungsstufe zur Weiterverarbeitung weitergegeben werden.
- Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Phonem-Datensätze mit den relativ höchsten modifizierten Übereinstimmungswerten nach der Größe ihres jeweiligen modifizierten Übereinstimmungswertes geordnet in einer Liste sortiert werden.
- Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in der Kontextdatenbank frühere Eingabedaten, die vom Benutzer bestätigt wurden, gespeichert sind, wobei in der zweiten Verarbeitungsstufe der Übereinstimmungswert eines Phonem-Datensatzes erhöhend modifiziert wird, wenn der Inhalt des Phonem-Datensatzes mit einem in der Kontextdatenbank gespeicherten, in der Vergangenheit bestätigten Eingabedatum übereinstimmt.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das elektronische Assistenzsystem in der Art eines Navigationssystems ausgebildet ist.
- Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass als eine Kontextdatenbank eine benutzerspezifische Adressdatenbank verwendet wird.
- Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass als eine Kontextdatenbank eine Datenbank mit Startpunkten oder Zielpunkten verwendet wird, die in der Vergangenheit Grundlage einer Routenplanung gewesen sind.
- Verfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass in einer Kontextdatenbank Daten zur Beschreibung der Bedeutung von Städten, insbesondere die Einwohnerzahl und/oder der Stadtfläche, enthalten sind.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das elektronische Assistenzsystem in der Art eines Medienabspielgeräts, insbesondere eines MP3-Abspielgeräts, ausgebildet ist.
- Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass in der Kontextdatenbank Daten zu bevorzugten Musikstücken und/oder Daten zur benutzerspezifischen Bewertung der Musikstücke und/oder Daten zum Zeitpunkt der Abspeicherung der Musikstücke enthalten sind.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das elektronische Assistenzsystem in der Art eines Fahrkartenautomats ausgebildet ist.
- Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass in der Kontextdatenbank Daten zu bevorzugten Zielbahnhöfen und/oder Daten zu nahe gelegenen Zielbahnhöfen und/oder Daten zur Größe oder Bedeutung von Zielbahnhöfen enthalten sind.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008021954A DE102008021954A1 (de) | 2008-02-29 | 2008-05-02 | Verfahren zum Betrieb eines elektronischen Assistenzsystems |
PCT/DE2009/000156 WO2009106031A1 (de) | 2008-02-29 | 2009-02-06 | Verfahren zum betrieb eines elektronischen assistenzsystems |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008012067.7 | 2008-02-29 | ||
DE102008012067 | 2008-02-29 | ||
DE102008021954A DE102008021954A1 (de) | 2008-02-29 | 2008-05-02 | Verfahren zum Betrieb eines elektronischen Assistenzsystems |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102008021954A1 true DE102008021954A1 (de) | 2009-09-03 |
Family
ID=40911440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008021954A Withdrawn DE102008021954A1 (de) | 2008-02-29 | 2008-05-02 | Verfahren zum Betrieb eines elektronischen Assistenzsystems |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102008021954A1 (de) |
WO (1) | WO2009106031A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011116460A1 (de) | 2011-10-20 | 2013-04-25 | Volkswagen Aktiengesellschaft | Verfahren für eine Benutzerschnittstelle |
DE102015226408A1 (de) * | 2015-12-22 | 2017-06-22 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Durchführen einer Spracherkennung zum Steuern zumindest einer Funktion eines Fahrzeugs |
WO2018082917A1 (de) * | 2016-11-02 | 2018-05-11 | Audi Ag | Verfahren zum verarbeiten einer benutzereingabe und kraftfahrzeug mit einer datenverarbeitungseinrichtung |
DE102013007964B4 (de) | 2013-05-10 | 2022-08-18 | Audi Ag | Kraftfahrzeug-Eingabevorrichtung mit Zeichenerkennung |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19742054A1 (de) * | 1997-09-24 | 1999-04-01 | Philips Patentverwaltung | Eingabesystem wenigstens für Orts- und/oder Straßennamen |
DE19933524A1 (de) * | 1999-07-16 | 2001-01-18 | Nokia Mobile Phones Ltd | Verfahren zur Eingabe von Daten in ein System |
DE10131157C1 (de) * | 2001-06-29 | 2002-07-04 | Project49 Ag | Dynamisches Grammatikgewichtungsverfahren für Spracherkennungssysteme |
DE10125825A1 (de) * | 2001-05-26 | 2002-11-28 | Bosch Gmbh Robert | Verfahren zur Spracheingabe und Datenträger |
DE10306022B3 (de) * | 2003-02-13 | 2004-02-19 | Siemens Ag | Dreistufige Einzelworterkennung |
DE102005018174A1 (de) * | 2005-04-19 | 2006-11-02 | Daimlerchrysler Ag | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 |
DE102007016887B3 (de) * | 2007-04-10 | 2008-07-31 | Siemens Ag | Verfahren und Vorrichtung zum Betreiben eines Navigationssystems |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10218226A1 (de) * | 2002-04-24 | 2003-11-06 | Volkswagen Ag | Verfahren und Einrichtung zur sprachgesteuerten Ansteuerung einer Multimediaeinrichtung, insbesondere in Kraftfahrzeugen |
KR100668297B1 (ko) * | 2002-12-31 | 2007-01-12 | 삼성전자주식회사 | 음성인식방법 및 장치 |
US7136459B2 (en) * | 2004-02-05 | 2006-11-14 | Avaya Technology Corp. | Methods and apparatus for data caching to improve name recognition in large namespaces |
JP4804052B2 (ja) * | 2005-07-08 | 2011-10-26 | アルパイン株式会社 | 音声認識装置、音声認識装置を備えたナビゲーション装置及び音声認識装置の音声認識方法 |
-
2008
- 2008-05-02 DE DE102008021954A patent/DE102008021954A1/de not_active Withdrawn
-
2009
- 2009-02-06 WO PCT/DE2009/000156 patent/WO2009106031A1/de active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19742054A1 (de) * | 1997-09-24 | 1999-04-01 | Philips Patentverwaltung | Eingabesystem wenigstens für Orts- und/oder Straßennamen |
DE19933524A1 (de) * | 1999-07-16 | 2001-01-18 | Nokia Mobile Phones Ltd | Verfahren zur Eingabe von Daten in ein System |
DE10125825A1 (de) * | 2001-05-26 | 2002-11-28 | Bosch Gmbh Robert | Verfahren zur Spracheingabe und Datenträger |
DE10131157C1 (de) * | 2001-06-29 | 2002-07-04 | Project49 Ag | Dynamisches Grammatikgewichtungsverfahren für Spracherkennungssysteme |
DE10306022B3 (de) * | 2003-02-13 | 2004-02-19 | Siemens Ag | Dreistufige Einzelworterkennung |
DE102005018174A1 (de) * | 2005-04-19 | 2006-11-02 | Daimlerchrysler Ag | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 |
DE102007016887B3 (de) * | 2007-04-10 | 2008-07-31 | Siemens Ag | Verfahren und Vorrichtung zum Betreiben eines Navigationssystems |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011116460A1 (de) | 2011-10-20 | 2013-04-25 | Volkswagen Aktiengesellschaft | Verfahren für eine Benutzerschnittstelle |
DE102013007964B4 (de) | 2013-05-10 | 2022-08-18 | Audi Ag | Kraftfahrzeug-Eingabevorrichtung mit Zeichenerkennung |
DE102015226408A1 (de) * | 2015-12-22 | 2017-06-22 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Durchführen einer Spracherkennung zum Steuern zumindest einer Funktion eines Fahrzeugs |
WO2018082917A1 (de) * | 2016-11-02 | 2018-05-11 | Audi Ag | Verfahren zum verarbeiten einer benutzereingabe und kraftfahrzeug mit einer datenverarbeitungseinrichtung |
US11086639B2 (en) | 2016-11-02 | 2021-08-10 | Audi Ag | Method for processing a user input and motor vehicle having a data-processing device |
Also Published As
Publication number | Publication date |
---|---|
WO2009106031A1 (de) | 2009-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
LU101105B1 (de) | Verfahren zur automatisierten Erstellung eines an eine vorgegebene Person gerichteten Phishing-Dokuments | |
DE69938374T2 (de) | Verfahren und Vorrichtung zur Spracherkennung mittels sowohl eines neuralen Netzwerks als auch verborgener Markov-Modelle | |
DE102008017993B4 (de) | Sprachsuchvorrichtung | |
DE19922974A1 (de) | Verfahren und Vorrichtung zur Bearbeitung eines Dokuments | |
DE102008021954A1 (de) | Verfahren zum Betrieb eines elektronischen Assistenzsystems | |
DE112016006512T5 (de) | Absichtseinschätzungsvorrichtung und Absichtseinschätzungsverfahren | |
DE102008027958A1 (de) | Verfahren zum Betrieb eines Navigationssystems | |
DE102007058651A1 (de) | Verfahren zum Betrieb eines Navigationsgeräts | |
EP1282897A1 (de) | Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems | |
WO1999005681A1 (de) | Verfahren zum abspeichern von suchmerkmalen einer bildsequenz und zugriff auf eine bildfolge in der bildsequenz | |
EP3115886A1 (de) | Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem | |
DE10042942A1 (de) | Verfahren zur Sprachsynthese | |
DE19640502A1 (de) | Verfahren zum Bestimmen eines akustischen Modells für ein Wort | |
DE112009003930T5 (de) | Spracherkennungsvorrichtung | |
EP0965088A1 (de) | Sichere identifikation mit vorauswahl und rückweisungsklasse | |
DE102020202795A1 (de) | Verfahren und Vorrichtung zum Komprimieren eines Neuronalen Netzes | |
EP0945705A2 (de) | Erkennungssystem | |
EP2154483B1 (de) | Verfahren zur Eingabe von Zielen in ein Navigationssystem | |
DE102014010315A1 (de) | Computer-implementiertes Verfahren und Vorrichtung zur Verarbeitung von Spracheingaben | |
DE10210553A1 (de) | Verfahren zum automatischen Klassifizieren eines Textes durch ein Computersystem | |
DE102005030965A1 (de) | Erweiterung des dynamischen Vokabulars eines Spracherkennungssystems um weitere Voiceenrollments | |
DE19806941A1 (de) | Verfahren zur Sprecheradaption von Merkmalsreferenzen | |
DE102016009196B4 (de) | Verfahren zum Betreiben mehrerer Spracherkenner | |
DE102013019208A1 (de) | Kraftfahrzeug-Sprachbedienung | |
DE10329546A1 (de) | Lexikon gesteuerter Teilsprachmodell-Mechanismus für die automatische Spracherkennung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20121201 |