DE10306082A1 - Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen - Google Patents
Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für AusgangsstimmenInfo
- Publication number
- DE10306082A1 DE10306082A1 DE10306082A DE10306082A DE10306082A1 DE 10306082 A1 DE10306082 A1 DE 10306082A1 DE 10306082 A DE10306082 A DE 10306082A DE 10306082 A DE10306082 A DE 10306082A DE 10306082 A1 DE10306082 A1 DE 10306082A1
- Authority
- DE
- Germany
- Prior art keywords
- voice
- processing
- voice guidance
- speech
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Eine Sprachverarbeitungseinheit weist die Priorität für die frühere Durchführung entweder einer Stimmenführungsverarbeitung oder einer Spracherkennungsverarbeitung zu, wenn eine die Spracherkennungsverarbeitung fordernde Spracheingabe angenommen wird, während die Stimmenführungsverarbeitung durchgeführt wird. Es kann ein Problem einer herkömmlichen Sprachverarbeitungseinheit dahingehend gelöst werden, dass, wenn ein Benutzer einen Spracheingabeknopf betätigt, um die Spracherkennungsverarbeitung zu fordern, die gegenwärtig ausgegebene Stimmenführung unterbrochen wird oder die planmäßig auszugebende Stimmenführung nicht gebildet wird, wodurch der Benutzer daran gehindert wird, wahrhaftig notwendige Informationen zu erhalten.
Description
- Die vorliegende Erfindung bezieht sich auf eine Sprachverarbeitungseinheit, die in einem Navigationssystem installiert ist, um eine Stimmenführung und Spracherkennung durchzuführen.
- Einige herkömmliche Navigationssysteme können eine Einstellung des Bestimmungsortes oder eine Suche nach Institutionen nicht nur durch Betätigen einer Fernsteuerung oder mechanischer Schalter wie Berührungsschalter durchführen, sondern auch durch Annahme einer Spracheingabe und Durchführung einer Spracherkennung.
- Z. B. offenbart die offen gelegte Japanische Patentanmeldung Nr. 2000-322098 eine Sprachverarbeitungseinheit für ein Navigationssystem, das das folgende Verfahren anwendet, um die Zuverlässigkeit der Spracherkennung zu erhöhen.
- Wenn ein Benutzer einen Spracheingabeknopf betätigt, um die Annahme einer Spracheingabe zu verlangen, blendet die Sprachverarbeitungseinheit Ausgangstöne des Autoradios aus, so dass sie nicht dessen Musik oder dergleichen als Rauschen erfasst.
- Mit der vorgenannten Konfiguration kann die herkömmliche Sprachverarbeitungseinheit die Erkennungszuverlässigkeit der Eingangssprache auf Kosten der Ausgangstöne von einer peripheren Vorrichtung wie dem Audiogerät verbessern, wenn der Benutzer den Spracheingabeknopf betätigt. Demgemäß gibt es das Problem, dass die gegenwärtige Ausgangssprachführung unterbrochen wird, oder die auszugebende Sprachführung wird tatsächlich nicht ausgegeben, wodurch verhindert wird, dass der Benutzer die notwendigen Informationen erhält.
- Die vorliegende Erfindung ist vorgesehen, um das vorgenannte Problem zu lösen. Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Sprachverarbeitungseinheit vorzusehen, die in der Lage ist, einem Benutzer wichtige Informationen zuverlässig selbst dann zu liefern, wenn die Spracheingabe durchgeführt wird.
- Gemäß einem Aspekt der vorliegenden Erfindung ist eine Sprachverarbeitungseinheit vorgesehen, enthaltend eine Verarbeitungssteuervorrichtung zum Zuweisen der Priorität entweder zu der Verarbeitung eines Stimmenführungsabschnitts oder zu der Verarbeitung eines vorher durchzuführenden Spracherkennungsabschnitts, wenn der Spracherkennungsabschnitt die Spracheingabe annimmt, während der Stimmenführungsabschnitt die Stimmenführungsverarbeitung durchführt oder plant.
- Die Erfindung wird im Folgenden anhand von in den Figuren dargestellten Ausführungsbeispielen näher erläutert. Es zeigen:
- Fig. 1 ein Blockschaltbild, das eine funktionelle Konfiguration eines Navigationssystems wiedergibt, bei welchem ein Ausführungsbeispiel 1 der Sprachverarbeitungseinheit gemäß der vorliegenden Erfindung angewendet wird;
- Fig. 2 ein Blockschaltbild, das eine Hardware- Konfiguration des Navigationssystems nach Fig. 1 wiedergibt;
- Fig. 3 ein Flussdiagramm, das ein Sprachverarbeitungsverfahren nach dem Ausführungsbeispiel 1 gemäß der vorliegenden Erfindung illustriert; und
- Fig. 4 ein Flussdiagramm, das ein Sprachverarbeitungsverfahren gemäß einem Ausführungsbeispiel 2 der vorliegenden Erfindung illustriert.
- Fig. 1 ist ein Blockschaltbild, das eine funktionelle Konfiguration eines Navigationssystems zeigt, bei welchem ein Ausführungsbeispiel 1 der Sprachverarbeitungseinheit gemäß der vorliegenden Erfindung angewendet wird. In Fig. 1 bezeichnet die Bezugszahl 1 einen Kartendatenspeicher zum Speichern von Kartendaten, die Straßeninformationen über Straßen für fahrende Fahrzeuge anzeigen; und 2 bezeichnet einen Stimmendatenspeicher zum Speichern von Sprachführungsnachrichten zum Lenken der Fahrt des Fahrzeugs. Die Stimmenführungsnachrichten sind geteilt in Festtypnachrichten, die gemäß den Typen der Stimmenführung gespeichert sind, und Worttypnachrichten mit konkreten Werten wie Abständen und Platznamen. Die Kombination der Festtyp- und der Worttypnachrichten kann die gewünschten Nachrichten erzeugen.
- Die Bezugszahl 3 bezeichnet einen Detektor für die gegenwärtige Position zum Erfassen der gegenwärtigen Position des Fahrzeugs durch Lesen der Ausgangsdaten eines GPS-Empfängers und verschiedener Sensoren; 4 bezeichnet einen Verkehrsinformationsempfänger zum Empfangen von Verkehrsinformationen; 5 bezeichnet einen Operationsabschnitt zur Annahme der Routeneinstellung für einen Bestimmungsort und anderer verschiedener Operationen eines Benutzers; 6 bezeichnet einen Routeneinstellabschnitt zum Suchen einer Route zu dem von dem Operationsabschnitt 5 gesetzten Bestimmungsort; 7 bezeichnet einen Spracheingabeabschnitt zur Eingabe der Sprache des Benutzers; und 8 bezeichnet einen Spracherkennungsabschnitt zum Durchführen einer Spracherkennung durch Suchen eines Spracherkennungs-Wörterbuches für die Eingangssprache.
- Der Spracheingabeabschnitt 7 und der Spracherkennungsabschnitt 8 bilden eine Spracherkennungsvorrichtung.
- Die Bezugszahl 9 bezeichnet eine Systemsteuervorrichtung zum Erzeugen eines Routenführungsbildes beispielsweise durch Lesen verschiedener Daten und zum Erzeugen einer Stimmenführungsnachricht, um die Stimmenführung für die gegenwärtige Situation geeignet zu machen. Die Systemsteuervorrichtung 9 steuert das gesamte System und steuert insbesondere, welcher Verarbeitung durch die Stimmausgabe-Steuervorrichtung 12 und den Spracherkennungsabschnitt 8 die Priorität zuzuweisen ist, wenn der Spracheingabeabschnitt 7 eine Spracheingabe annimmt, während die Stimmausgabe- Steuervorrichtung 12 eine Stimmenführungsverarbeitung durchführt.
- Die Bezugszahl 10 bezeichnet eine Anzeigesteuervorrichtung zum Erzeugen von Anzeigesignalen zur Darstellung einer Straßenkarte, einer gegenwärtigen Positionsmarkierung, einer Bestimmungsmarkierung und dergleichen unter der Steuerung der Systemsteuervorrichtung 9; 11 bezeichnet eine Anzeigeabschnitt zur Darstellung der Straßenkarte, der gegenwärtigen Positionsmarkierung, der Bestimmungsortmarkierung und dergleichen in Abhängigkeit von dem von der Anzeigesteuervorrichtung 10 gelieferten Anzeigesignalen; 12 bezeichnet eine Stimmenausgabe-Steuervorrichtung zum Steuern der Ausgabe der Sprache unter der Steuerung der Systemsteuervorrichtung 9; und 13 bezeichnet einen Stimmenausgabeabschnitt zur Ausgabe der Stimme in Abhängigkeit von der Steuerung der Stimmenausgabe- Steuervorrichtung 12.
- Die Systemsteuervorrichtung 9, die Stimmenausgabe- Steuervorrichtung 12 und der Stimmenausgabeabschnitt 13 bilden eine Stimmenführungsvorrichtung.
- Fig. 2 ist ein Blockschaltbild, das eine Hardware- Konfiguration des Navigationssystems nach Fig. 1 zeigt. In Fig. 2 bezeichnet die Bezugszahl einen DVD- ROM entsprechend dem Kartendatenspeicher 1 und dem Stimmendatenspeicher 2; 22 bezeichnet einen DVD-ROM- Treiber zum Betrieb des DVD-ROM 21; 23 bezeichnet einen GPS-Empfänger zum Empfangen von Radiowellen vom GPS-Satelliten, um die gegenwärtige Position des Fahrzeugs zu erfassen; 24 bezeichnet einen Richtungssensor zum Erfassen der Richtung des Fahrzeugs; und 25 bezeichnet einen Abstandssensor zum Erfassen der Weglänge, die Fahrzeug zurücklegt. Der GPS-Empfänger 23, der Richtungssensor 24 und der Abstandssensor 25 entsprechen dem Detektor 3 für die gegenwärtige Position.
- Die Bezugszahl 26 bezeichnet einen FM- Multiplexempfänger entsprechend dem Verkehrsinformationsempfänger 4; und 27 bezeichnet eine Steuereinheit zur Durchführung verschiedener Berechnungen und zur Steuerung des gesamten Systems. Die Steuereinheit 27 erzielt die Funktionen der Systemsteuervorrichtung 9, des Routeneinstellabschnitts 6, der Anzeigesteuervorrichtung 10, der Stimmenausgabe-Steuervorrichtung 12 und des Spracherkennungsabschnitts 8 nach Fig. 1. Die Bezugszahl 28 bezeichnet eine Flüssigkristallanzeige zur Darstellung der von der Steuereinheit 27 gelieferten Anzeigedaten. Diese entspricht dem Anzeigeabschnitt 11. Die Bezugszahl 29 bezeichnet eine Stimmenausgabeeinheit zur Erzeugung der Sprache. Sie entspricht dem Stimmenausgabeabschnitt 13. Die Bezugszahl 30 bezeichnet einen Eingabeschalter wie eine Fernsteuerung und einen Berührungsschalter zum Zuführen von Instruktionen wie der Eingabe eines Bestimmungsortes und der Änderung des Schirms des Anzeigeabschnittsabschnitts 11. Der Operationsabschnitt 5 ist eine der Funktionen des Eingabeschalters 30. Die Bezugszahl 31 bezeichnet ein Mikrofon für den Benutzer zur Eingabe von Sprache. Es entspricht dem Spracheingabeabschnitt 7.
- Die Bezugszahl 41 bezeichnet eine zentrale Verarbeitungseinheit (CPU) der Steuereinheit 27; 42 bezeichnet einen ROM; 43 bezeichnet einen RAM; 44 bezeichnet eine Anzeigesteuervorrichtung zur Durchführung der Anzeigesteuerung für die Flüssigkristallanzeige 28; und 45 bezeichnet eine Eingabe/Ausgabe(I/O)- Vorrichtung zum Durchführen der Eingabe und Ausgabe zwischen der Steuereinheit 27 und der Außenseite.
- Die Bezugszahl 51 bezeichnet einen Digital/Analog- Wandler (D/A-Wandler) zum Umwandeln einer Stimmenführungsnachricht, die in der Form von digitalen Signaldaten gelesen werden, in ein analoges Signal; 52 bezeichnet einen Verstärker zum Verstärken der in das analoge Signal umgewandelten Stimme; und 53 bezeichnete einen Lautsprecher zur Ausgabe der verstärkten Stimme.
- Als Nächstes wird die Arbeitsweise des vorliegenden Ausführungsbeispiels 1 mit Bezug auf Fig. 3 beschrieben, die ein die Sprachverarbeitung nach dem vorliegenden Ausführungsbeispiel 1 gemäß der vorliegenden Erfindung illustrierendes Flussdiagramm darstellt.
- Zuerst stellt die Systemsteuervorrichtung 9 fest, ob der Benutzer einen Sprachschalter drückt oder nicht, um eine Spracheingabe zu machen (Schritt ST1).
- Der Sprachschalter ist einer der Schalter des Operationsabschnitts 5, und er wird gedrückt, wenn der Benutzer Sprache eingibt, um das System von der Spracheingabe für die Spracherkennung zu benachrichtigen. Durch Erfassung des Drückens des Sprachschalters stellt die Systemsteuervorrichtung 9 fest, ob der Stimmenausgabeabschnitt 13 nun irgendeine Stimme erzeugt (ST2).
- Wenn keine Sprache ausgegeben wird, weist die Systemsteuervorrichtung 9 den Spracherkennungsabschnitt 8 an, die Spracherkennungsverarbeitung durchzuführen. Somit führt der Spracherkennungsabschnitt die Spracherkennung der Eingangssprache des Benutzers, die von dem Spracheingabeabschnitt 7 geliefert wird, durch (Schritt ST3).
- Wenn andererseits die Stimme erzeugt wird, stellt die Systemsteuervorrichtung 9 den Typ der gegenwärtig ausgegebenen Stimme fest (Schritt ST4). Insbesondere stellt sie den Typ der Stimmenführung fest, um die Verarbeitung zu bestimmen, der die Priorität zuzuweisen ist.
- Wenn z. B. die gegenwärtig ausgegebene Stimmenführung eine Nachricht über Sicherheit ist wie eine Kurvenvorhersage oder Verzögerungswarnung (z. B. "Kurve voraus, Geschwindigkeit verringern"), verhindert die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung durchführt, wodurch die Ausgabe der Stimmenführung fortgesetzt wird (Schritt ST5). In diesem Fall sendet die Systemsteuervorrichtung 9, um den Benutzer zu benachrichtigen, dass die Spracherkennungsverarbeitung nicht durchgeführt werden kann, einen Befehl für die Anzeige der Nachricht zu der Anzeigesteuervorrichtung 10 (Schritt ST6). Da dieser Typ der Stimmenführung sehr wichtig und wesentlich für den Benutzer ist, wird ihm die höchste Priorität zugewiesen.
- Wenn der Typ der Stimmenführung zu den Verkehrsinformationen über einen Verkehrsstau und eine Verkehrsteuerung gehört, und über die Maudinformationen des ETC (elektronische Maudsammlung), wie "Verkehrsstau 1 km voraus" und "Maud beträgt 1000 Yen", führt die Systemsteuervorrichtung 9 die folgende Operation durch. Zuerst liefert sie einen Stimmenausgabe- Unterbrechungsbefehl zu der Stimmenausgabe- Steuervorrichtung 12, um die gegenwärtig ausgegebene Stimmenführung zu unterbrechen (Schritt ST7). Dann bewirkt sie, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der eingegebenen Stimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST8).
- Nachfolgend liefert, nachdem die Spracherkennungsverarbeitung der Eingangsstimme beendet sind, die Systemsteuervorrichtung 9 einen Stimmenausgabe- Wiederaufnahmebefehl zu der Stimmenausgabe- Steuervorrichtung 12, um die unterbrochene Nachricht wieder von Anfang an auszugeben (Schritt ST9). Alternativ kann sie von dem Unterbrechungspunkt aus wieder aufgenommen werden oder sie kann ausgegeben werden, nachdem sie in eine einfachere Version aufbereitet wurde. Obgleich dieser Typ von Stimmenführung für den Benutzer notwendig ist, kann er ohne Probleme verzögert werden.
- Wenn der Typ der Stimmenführung eine Nachricht ist, die mit der Routenführung verbunden ist, wie "rechts abbiegen 500 m voraus", liefert die Systemsteuervorrichtung 9 einen Stimmenausgabe-Haltebefehl zu der Stimmenausgabe-Steuervorrichtung 12. Somit steuert die Systemsteuervorrichtung 9 derart, dass die gegenwärtige ausgegebene Stimmenführung angehalten wird (Schritt ST10), und sie bewirkt, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingangsstimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST11). Dies folgt daraus, dass, obgleich dieser Typ von Stimmenführung für den Benutzer notwendig ist, wenn seine Ausgabe verzögert ist, der Benutzer den geführten Ort verlieren kann, da die Führung Informationen über den Abstand und dergleichen enthält. Zusätzlich legt die Betätigung des Sprachschalters durch den Benutzer nahe, dass es sinnvoll ist, dass die Systemsteuervorrichtung 9 die Feststellung trifft, dass der Benutzer die Operation gemäß der Spracherkennung wünscht anstelle der Routenführung durch die Stimme.
- Wenn die Stimmenführung mit einem wiedergegebenen Audioausgangssignal wie Musik assoziiert ist, lässt die Systemsteuervorrichtung 9 den Lautsprecher verstummen (wenn der Stimmenausgabeabschnitt 13 die Funktion des Lautsprechers teilt, lässt sie den Sprachausgabeabschnitt 13 verstummen) (Schritt ST12). Dann bewirkt die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingangssprache durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST13).
- Nachfolgend wird, nachdem die Spracherkennungsverarbeitung der Eingangsstimme beendet ist, die Stummschaltung des Lautsprechers freigegeben (Schritt ST14).
- Wie vorstehend beschrieben ist, ist das Vorliegende Ausführungsbeispiel 1 so ausgebildet, dass, wenn die Spracherkennungsverarbeitung durch die Stimmeneingabe erforderlich ist, während die Stimmenführungsverarbeitung durchgeführt wird, entweder der Stimmenführungsverarbeitung oder Spracherkennungsverarbeitung eine vorher auszuführende Priorität zugewiesen wird. Demgemäß bietet das vorliegende Ausführungsbeispiel 1 den Vorteil, in der Lage zu sein, wichtige Informationen ohne Versagen zu liefern, selbst wenn die Spracheingabe durchgeführt wird.
- Obgleich das vorliegende Ausführungsbeispiel 1 automatisch die Priorität der Stimmenführungsverarbeitung und der Spracherkennungsverarbeitung feststellt, ist dies nicht wesentlich. Z. B. ist auch eine Konfiguration möglich, bei der der Benutzer die Priorität frei einstellen kann.
- Wenn die Spracherkennungsverarbeitung durch die Spracheingabe erforderlich ist, während die Stimmenführungsverarbeitung durchgeführt wird, wird bei dem vorhergehenden Ausführungsbeispiel 1 die Verarbeitung ausgewählt, der die Priorität für die vorhergehende Ausführung zugewiesen wird. Die jedoch ist nicht wesentlich. Wenn z. B. die Spracherkennungsverarbeitung durch die Spracheingabe erforderlich ist, während die Stimmenführungsverarbeitung planmäßig auszuführen ist, kann die Verarbeitung, der die Priorität zur vorhergehenden Ausführung zugewiesen ist, wie in Fig. 4 gezeigt, ausgewählt werden.
- Dies wird wie folgt realisiert.
- Zuerst stellt die Systemsteuervorrichtung 9 fest, ob der Benutzer einen Sprachschalter drückt oder nicht, um eine Spracheingabe zu machen (Schritt ST21).
- Wenn das Drücken des Sprachschalters erfasst wird, stellt die Systemsteuervorrichtung 9 fest, ob irgendeine Stimmennachricht planmäßig von dem Stimmenausgabeabschnitt 13 auszugeben ist oder nicht (Schritt ST22). Beispielsweise wird festgestellt, ob der Sprachausgabeabschnitt 13 planmäßig eine Stimmennachricht innerhalb einer bestimmten Zeitperiode von 15 Sekunden oder 300 Millisekunden erzeugen soll.
- Wenn geplant ist, dass keine Sprache ausgegeben werden soll, weist die Systemsteuervorrichtung 9 den Spracherkennungsabschnitt 8 an, die Spracherkennungsverarbeitung durchzuführen. Somit führt der Spracherkennungsabschnitt 8 die Spracherkennung der von dem Spracheingabeabschnitt 7 zugeführten Eingangsstimme des Benutzers durch (Schritt ST23).
- Wenn andererseits geplant ist, dass irgendeine Stimmennachricht auszugeben ist, stellt die Systemsteuervorrichtung 9 den Typ der Stimme fest (Schritt ST24). Insbesondere stellt sie den Typ der Stimmenführung fest, um die Verarbeitung zu bestimmen, der Priorität gegeben ist.
- Wenn z. B. geplant ist, dass die auszugebende Stimmenführung eine Nachricht über Sicherheit wie eine Kurvenvorhersage oder Verzögerungswarnung ist (z. B. "Kurve voraus, Verringern der Geschwindigkeit"), verhindert die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung durchführt, und sie ermöglicht, dass die Stimmenführung ausgegeben wird (Schritt ST25). In diesem Fall sendet die Systemsteuervorrichtung 9, um den Benutzer zu benachrichtigen, dass die Spracherkennungsverarbeitung nicht durchgeführt werden kann, einen Befehl zu der Anzeigesteuervorrichtung 10, um die Nachricht anzuzeigen (Schritt ST26).
- Wenn der Typ der Stimmenführung zu den Verkehrsinformationen über einen Verkehrsstau und eine Verkehrssteuerung gehört, und über die Maudinformationen der ETC, wie "Verkehrsstau 1 km voraus", "Maud beträgt 1.000 Yen", führt die Systemsteuervorrichtung 9 die folgende Operation durch. Zuerst liefert sie einen Stimmenausgabe-Reservierungsbefehl zu der Stimmenausgabe-Steuervorrichtung 12, um eine für die Ausgabe geplante Stimmenführung zurückzuhalten (Schritt ST27). Dann bewirkt sie, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingabestimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST28).
- Nachfolgend liefert, nachdem die Spracherkennungsverarbeitung der Eingabestimme beendet ist, die Systemsteuervorrichtung 9 einen Stimmenausgabe- Startbefehl zu der Stimmenausgabe-Steuervorrichtung 12, um die reservierte Nachricht auszugeben (Schritt ST29).
- Wenn der Typ der Stimmenführung mit der Routenführung assoziiert ist wie "rechts abbiegen 500 m voraus", liefert die Systemsteuervorrichtung 9 einen Stimmenausgabe-Anhaltebefehl zu der Stimmenausgabe- Steuervorrichtung 12, um die planmäßig auszugebende Stimmenführung anzuhalten (Schritt ST30), und sie bewirkt, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingabestimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST31). Dies folgt daraus, dass die mit der Routenführung assoziierte Stimmenführung gewöhnlich mehrere Male ausgegeben wird in Übereinstimmung mit dem Abstand, anstatt nur einmal.
- Wenn die Stimmenführung mit einer wiedergegebenen Audioausgabe wie Musik assoziiert ist, setzt die Systemsteuervorrichtung 9 den Audiosprecher still (wenn der Stimmenausgabeabschnitt 13 die Funktion des Audiosprechers teilt, wird der Stimmenausgabeabschnitt 13 stillgesetzt) (Schritt ST32). Dann bewirkt die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingabestimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST33).
- Nachfolgend wird, nachdem die Spracherkennungsverarbeitung der Eingabeschritte beendet ist, die Stillsetzung des Audiosprechers freigegeben (Schritt ST34).
- Wie vorstehend beschrieben ist, ist das vorliegende Ausführungsbeispiel 2 so konfiguriert, dass, wenn die Spracherkennungsverarbeitung durch die Spracheingabe erforderlich ist, während die Stimmenführungsverarbeitung planmäßig auszuführen ist, entweder der Stimmenführungsverarbeitung oder der Spracherkennungsverarbeitung die Priorität für die frühere Ausführung zugewiesen wird. Demgemäß bietet das vorliegende Ausführungsbeispiel 2 den Vorteil, in der Lage zu sein, wichtige Informationen ohne Versagen zu liefern, selbst wenn die Spracheingabe durchgeführt wird.
- Obgleich beim vorliegenden Ausführungsbeispiel 2 automatisch die Priorität der Stimmenführungsverarbeitung und der Spracherkennungsverarbeitung festgestellt wird, ist dies nicht wesentlich. Z. B. ist auch eine Konfiguration möglich, bei der der Benutzer die Priorität frei festsetzen kann.
Claims (10)
1. Sprachverarbeitungseinheit, welche aufweist:
eine Stimmenführungsvorrichtung (9, 12, 13) zum Ausführen einer Stimmenführungsverarbeitung in Abhängigkeit von Bedingungen;
eine Spracherkennungsvorrichtung (7, 8) zum Ausführen einer Spracherkennungsverarbeitung durch Annehmen einer Spracheingabe; und
eine Verarbeitungssteuervorrichtung (9) zum Zuweisen einer Priorität für eine frühere Ausführung für entweder die Verarbeitung durch die Stimmenführungsvorrichtung oder die Verarbeitung durch die Spracherkennungsvorrichtung, wenn die Spracherkennungsvorrichtung, die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Stimmenführungsverarbeitung ausführt oder plant.
eine Stimmenführungsvorrichtung (9, 12, 13) zum Ausführen einer Stimmenführungsverarbeitung in Abhängigkeit von Bedingungen;
eine Spracherkennungsvorrichtung (7, 8) zum Ausführen einer Spracherkennungsverarbeitung durch Annehmen einer Spracheingabe; und
eine Verarbeitungssteuervorrichtung (9) zum Zuweisen einer Priorität für eine frühere Ausführung für entweder die Verarbeitung durch die Stimmenführungsvorrichtung oder die Verarbeitung durch die Spracherkennungsvorrichtung, wenn die Spracherkennungsvorrichtung, die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Stimmenführungsverarbeitung ausführt oder plant.
2. Sprachverarbeitungseinheit nach Anspruch 1,
dadurch gekennzeichnet, dass die
Verarbeitungssteuervorrichtung die vorher auszuführende
Verarbeitung feststellt unter Berücksichtigung
eines Typs der Stimmenführung.
3. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die
Sprachführung mit Sicherheitsvorkehrungen assoziiert ist,
wenn die Spracherkennungsvorrichtung die
Spracheingabe annimmt, während die
Stimmenführungsvorrichtung, die Stimmenführungsverarbeitung
durchführt, die Verarbeitungssteuervorrichtung die
Stimmenführungsverarbeitung fortsetzt und die
Spracherkennungserkennungsverarbeitung löscht.
4. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die
Stimmenführung mit Verkehrsinformationen oder
Maudinformationen assoziiert ist, wenn die
Spracherkennungsvorrichtung die Spracheingabe annimmt,
während die Stimmenführungsvorrichtung die
Stimmenführungsverarbeitung durchführt, die
Verarbeitungssteuervorrichtung die
Stimmenführungsverarbeitung für eine Zeit aufschiebt und die
Spracherkennungsverarbeitung durchführt.
5. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die
Stimmenführung mit der Routenführung assoziiert ist, wenn
die Spracherkennungsvorrichtung die
Spracheingabe annimmt, während die
Stimmenführungsvorrichtung die Stimmenführungsverarbeitung durchführt,
die Verarbeitungssteuervorrichtung die
Stimmenführungsverarbeitung anhält und die
Spracherkennungsvorrichtung durchführt.
6. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die Stimme, die
die Stimmenführungsvorrichtung ausgibt
wiedergegebene Audioausgangssignale sind, wenn die
Spracherkennungsvorrichtung die Spracheingabe
annimmt, während die Stimmenführungsvorrichtung
die Stimmenführungsverarbeitung durchführt, die
Verarbeitungssteuervorrichtung einen
Audiosprecher (53) stillsetzt und die
Spracherkennungsvorrichtung durchführt.
7. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die
Stimmenführung mit Sicherheitsvorkehrungen assoziiert ist,
wenn die Spracherkennungsvorrichtung die
Spracheingabe annimmt, während die
Sprachführungsvorrichtung planmäßig die
Stimmenführungsverarbeitung durchführen soll, die
Verarbeitungssteuervorrichtung die Spracherkennungsverarbeitung
löscht.
8. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die
Stimmenführung entweder mit Verkehrsinformationen oder
Maudinformationen assoziiert ist, wenn die
Spracherkennungsvorrichtung die Sprachangabe
annimmt, während die Stimmenführungsvorrichtung
die Durchführung der Stimmenführungsverarbeitung
plant, die Verarbeitungssteuervorrichtung die
Stimmenführungsverarbeitung verschiebt und die
Spracherkennungsverarbeitung durchführt.
9. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die
Stimmenführung mit der Routenführung assoziiert ist, wenn
die Spracherkennungsvorrichtung die
Spracheingabe annimmt, während die
Stimmenführungsvorrichtung die Durchführung der
Stimmenführungsverarbeitung plant, die
Verarbeitungssteuervorrichtung die Stimmenführungsverarbeitung anhält und
die Spracherkennungsvorrichtung durchführt.
10. Sprachverarbeitungseinheit nach Anspruch 2,
dadurch gekennzeichnet, dass, wenn die Stimme, die
die Stimmenführungsvorrichtung ausgibt, ein
wiedergegebenes Audioausgangssignal ist, wenn die
Spracherkennungsvorrichtung die Spracheingabe
annimmt, während die Stimmenführungsvorrichtung
die Durchführung der Stimmenführungsverarbeitung
plant, die Verarbeitungssteuervorrichtung einen
Audiosprecher (53) stillsetzt und die
Spracherkennungsvorrichtung durchführt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002-035872 | 2002-02-13 | ||
JP2002035872A JP3902483B2 (ja) | 2002-02-13 | 2002-02-13 | 音声処理装置及び音声処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10306082A1 true DE10306082A1 (de) | 2003-08-28 |
DE10306082B4 DE10306082B4 (de) | 2005-11-24 |
Family
ID=27654986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10306082A Expired - Fee Related DE10306082B4 (de) | 2002-02-13 | 2003-02-07 | Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen |
Country Status (3)
Country | Link |
---|---|
US (1) | US7254544B2 (de) |
JP (1) | JP3902483B2 (de) |
DE (1) | DE10306082B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9773500B2 (en) | 2014-02-22 | 2017-09-26 | Audi Ag | Method for acquiring at least two pieces of information to be acquired, comprising information content to be linked, using a speech dialogue device, speech dialogue device, and motor vehicle |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP2006227225A (ja) * | 2005-02-16 | 2006-08-31 | Alpine Electronics Inc | コンテンツ提供装置及び方法 |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP4832158B2 (ja) * | 2006-05-16 | 2011-12-07 | 富士通東芝モバイルコミュニケーションズ株式会社 | 音声応答装置及びその方法 |
KR100819234B1 (ko) * | 2006-05-25 | 2008-04-02 | 삼성전자주식회사 | 네비게이션 단말의 목적지 설정 방법 및 장치 |
JP4491438B2 (ja) * | 2006-06-26 | 2010-06-30 | Necシステムテクノロジー株式会社 | 音声対話装置、音声対話方法、およびプログラム |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20090313010A1 (en) * | 2008-06-11 | 2009-12-17 | International Business Machines Corporation | Automatic playback of a speech segment for media devices capable of pausing a media stream in response to environmental cues |
JP2009302788A (ja) * | 2008-06-11 | 2009-12-24 | Konica Minolta Business Technologies Inc | 画像処理装置、同装置による音声案内方法及び音声案内プログラム |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20100332236A1 (en) * | 2009-06-25 | 2010-12-30 | Blueant Wireless Pty Limited | Voice-triggered operation of electronic devices |
US20100330908A1 (en) * | 2009-06-25 | 2010-12-30 | Blueant Wireless Pty Limited | Telecommunications device with voice-controlled functions |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9482296B2 (en) | 2012-06-05 | 2016-11-01 | Apple Inc. | Rendering road signs during navigation |
US9418672B2 (en) | 2012-06-05 | 2016-08-16 | Apple Inc. | Navigation application with adaptive instruction text |
US9886794B2 (en) | 2012-06-05 | 2018-02-06 | Apple Inc. | Problem reporting in maps |
US9997069B2 (en) * | 2012-06-05 | 2018-06-12 | Apple Inc. | Context-aware voice guidance |
US9230556B2 (en) | 2012-06-05 | 2016-01-05 | Apple Inc. | Voice instructions during navigation |
US8965696B2 (en) | 2012-06-05 | 2015-02-24 | Apple Inc. | Providing navigation instructions while operating navigation application in background |
US9111380B2 (en) | 2012-06-05 | 2015-08-18 | Apple Inc. | Rendering maps |
US10176633B2 (en) | 2012-06-05 | 2019-01-08 | Apple Inc. | Integrated mapping and navigation application |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
JP6211256B2 (ja) * | 2012-09-26 | 2017-10-11 | 株式会社ナビタイムジャパン | 情報処理装置、情報処理方法、および情報処理プログラム |
US9368114B2 (en) * | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101959188B1 (ko) | 2013-06-09 | 2019-07-02 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CA2928005C (en) * | 2013-10-20 | 2023-09-12 | Massachusetts Institute Of Technology | Using correlation structure of speech dynamics to detect neurological changes |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
JP6436831B2 (ja) * | 2015-03-27 | 2018-12-12 | 三菱電機株式会社 | 加熱調理器 |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10824386B2 (en) | 2016-07-11 | 2020-11-03 | Telenav, Inc. | Navigation system with message interchange mechanism and method of operation thereof |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10248379B2 (en) * | 2017-07-27 | 2019-04-02 | Motorola Solutions, Inc. | Automatic and selective context-based gating of a speech-output function of an electronic digital assistant |
JP7002823B2 (ja) * | 2018-12-06 | 2022-01-20 | アルパイン株式会社 | 案内音声出力制御システムおよび案内音声出力制御方法 |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
KR20220059629A (ko) * | 2020-11-03 | 2022-05-10 | 현대자동차주식회사 | 차량 및 그의 제어방법 |
US12086501B2 (en) * | 2020-12-09 | 2024-09-10 | Cerence Operating Company | Automotive infotainment system with spatially-cognizant applications that interact with a speech interface |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61249114A (ja) * | 1985-04-26 | 1986-11-06 | Omron Tateisi Electronics Co | プログラマブル・コントロ−ラの音声出力ユニツト |
JPS62105198A (ja) * | 1985-10-31 | 1987-05-15 | 富士通株式会社 | 音声出力制御方式 |
JPH0831021B2 (ja) * | 1986-10-13 | 1996-03-27 | 日本電信電話株式会社 | 音声ガイダンス出力制御方法 |
JP3398401B2 (ja) * | 1992-03-16 | 2003-04-21 | 株式会社東芝 | 音声認識方法及び音声対話装置 |
JPH08146991A (ja) * | 1994-11-17 | 1996-06-07 | Canon Inc | 情報処理装置及びその制御方法 |
US6067521A (en) * | 1995-10-16 | 2000-05-23 | Sony Corporation | Interrupt correction of speech recognition for a navigation device |
JP3489772B2 (ja) * | 1996-11-07 | 2004-01-26 | 株式会社リコー | 作業支援システム |
JPH1115496A (ja) * | 1997-06-26 | 1999-01-22 | Matsushita Electric Ind Co Ltd | 車載装置 |
US6144938A (en) | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
JP3980791B2 (ja) * | 1999-05-03 | 2007-09-26 | パイオニア株式会社 | 音声認識装置を備えたマンマシンシステム |
JP3654045B2 (ja) | 1999-05-13 | 2005-06-02 | 株式会社デンソー | 音声認識装置 |
EP1083545A3 (de) * | 1999-09-09 | 2001-09-26 | Xanavi Informatics Corporation | Eigennamen Spracherkennung in einem Navigationssystem |
DE10040466C2 (de) | 2000-08-18 | 2003-04-10 | Bosch Gmbh Robert | Verfahren zur Steuerung einer Spracheingabe und -ausgabe |
-
2002
- 2002-02-13 JP JP2002035872A patent/JP3902483B2/ja not_active Expired - Fee Related
-
2003
- 2003-02-05 US US10/358,185 patent/US7254544B2/en not_active Expired - Fee Related
- 2003-02-07 DE DE10306082A patent/DE10306082B4/de not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9773500B2 (en) | 2014-02-22 | 2017-09-26 | Audi Ag | Method for acquiring at least two pieces of information to be acquired, comprising information content to be linked, using a speech dialogue device, speech dialogue device, and motor vehicle |
Also Published As
Publication number | Publication date |
---|---|
US20030154079A1 (en) | 2003-08-14 |
US7254544B2 (en) | 2007-08-07 |
JP3902483B2 (ja) | 2007-04-04 |
JP2003233393A (ja) | 2003-08-22 |
DE10306082B4 (de) | 2005-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10306082B4 (de) | Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen | |
DE69332359T2 (de) | Leitungsgerät für Fahrzeuge | |
DE69325316T2 (de) | Fahrzeugnavigationssystem | |
DE69009551T2 (de) | System zur Steuerung des Verlaufs von mehreren Eisenbahnzügen auf einem Netz. | |
DE112012006617T5 (de) | Bord-Informationsvorrichtung | |
EP1035530B1 (de) | Audio-/Navigationssystem mit automatischer Einstellung benutzerabhängiger Systemparameter | |
DE112014006409T5 (de) | Fahrzeugsteuervorrichtung und Fahrzeugsteuerverfahren | |
DE112009005470B4 (de) | Navigationssystem | |
DE3017425A1 (de) | Verfahren zur uebertragung einer vielzahl von echtzeit-informationsarten | |
DE10137670A1 (de) | Notfall-Meldevorrichtung, Notfall-Meldesystem und Verfahren zum Steuern der Notfall-Meldevorrichtung | |
DE102017101238A1 (de) | Spracherkennungs-systeme und verfahren zum automatisierten fahren | |
DE102005044631A1 (de) | Navigationsvorrichtung | |
DE10330274A1 (de) | Sprachgesteuertes System | |
DE10008226C2 (de) | Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung | |
DE102008033016A1 (de) | Audio-Führungssystem | |
DE19535576A1 (de) | Verfahren und Vorrichtung zur Zielführungsunterstützung | |
EP1896285A1 (de) | Vorrichtung zum unterstützen eines führens eines fahrzeugs und verfahren zum betreiben der vorrichtung | |
DE102010003331A1 (de) | Verfahren und Vorrichtung zur Steuerung der Längsgeschwindigkeit eines Kraftfahrzeugs | |
EP4288954A1 (de) | Verfahren zum infrastrukturgestützten assistieren eines kraftfahrzeugs | |
DE112009000554B4 (de) | Navigationsgerät | |
DE102019214484A1 (de) | Verfahren zum sicheren Ermitteln von Infrastrukturdaten | |
DE102014211834A1 (de) | Verfahren und Vorrichtung zum Korrigieren eines Regelparameters für eine automatische Geschwindigkeitsregeleinrichtung eines Fahrzeugs | |
EP1121684B1 (de) | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache | |
EP2514652A1 (de) | Verfahren und Vorrichtung zur Begrenzung der Geschwindigkeit eines Kraftfahrzeugs | |
DE102021124586A1 (de) | System und Verfahren zur agilen, intuitiven Steuerung von Fahrzeugfunktionen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |