[go: up one dir, main page]

DE10306082A1 - Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen - Google Patents

Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen

Info

Publication number
DE10306082A1
DE10306082A1 DE10306082A DE10306082A DE10306082A1 DE 10306082 A1 DE10306082 A1 DE 10306082A1 DE 10306082 A DE10306082 A DE 10306082A DE 10306082 A DE10306082 A DE 10306082A DE 10306082 A1 DE10306082 A1 DE 10306082A1
Authority
DE
Germany
Prior art keywords
voice
processing
voice guidance
speech
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10306082A
Other languages
English (en)
Other versions
DE10306082B4 (de
Inventor
Masako Ota
Kazuhiro Yokouchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE10306082A1 publication Critical patent/DE10306082A1/de
Application granted granted Critical
Publication of DE10306082B4 publication Critical patent/DE10306082B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Sprachverarbeitungseinheit weist die Priorität für die frühere Durchführung entweder einer Stimmenführungsverarbeitung oder einer Spracherkennungsverarbeitung zu, wenn eine die Spracherkennungsverarbeitung fordernde Spracheingabe angenommen wird, während die Stimmenführungsverarbeitung durchgeführt wird. Es kann ein Problem einer herkömmlichen Sprachverarbeitungseinheit dahingehend gelöst werden, dass, wenn ein Benutzer einen Spracheingabeknopf betätigt, um die Spracherkennungsverarbeitung zu fordern, die gegenwärtig ausgegebene Stimmenführung unterbrochen wird oder die planmäßig auszugebende Stimmenführung nicht gebildet wird, wodurch der Benutzer daran gehindert wird, wahrhaftig notwendige Informationen zu erhalten.

Description

  • Die vorliegende Erfindung bezieht sich auf eine Sprachverarbeitungseinheit, die in einem Navigationssystem installiert ist, um eine Stimmenführung und Spracherkennung durchzuführen.
  • Einige herkömmliche Navigationssysteme können eine Einstellung des Bestimmungsortes oder eine Suche nach Institutionen nicht nur durch Betätigen einer Fernsteuerung oder mechanischer Schalter wie Berührungsschalter durchführen, sondern auch durch Annahme einer Spracheingabe und Durchführung einer Spracherkennung.
  • Z. B. offenbart die offen gelegte Japanische Patentanmeldung Nr. 2000-322098 eine Sprachverarbeitungseinheit für ein Navigationssystem, das das folgende Verfahren anwendet, um die Zuverlässigkeit der Spracherkennung zu erhöhen.
  • Wenn ein Benutzer einen Spracheingabeknopf betätigt, um die Annahme einer Spracheingabe zu verlangen, blendet die Sprachverarbeitungseinheit Ausgangstöne des Autoradios aus, so dass sie nicht dessen Musik oder dergleichen als Rauschen erfasst.
  • Mit der vorgenannten Konfiguration kann die herkömmliche Sprachverarbeitungseinheit die Erkennungszuverlässigkeit der Eingangssprache auf Kosten der Ausgangstöne von einer peripheren Vorrichtung wie dem Audiogerät verbessern, wenn der Benutzer den Spracheingabeknopf betätigt. Demgemäß gibt es das Problem, dass die gegenwärtige Ausgangssprachführung unterbrochen wird, oder die auszugebende Sprachführung wird tatsächlich nicht ausgegeben, wodurch verhindert wird, dass der Benutzer die notwendigen Informationen erhält.
  • Die vorliegende Erfindung ist vorgesehen, um das vorgenannte Problem zu lösen. Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Sprachverarbeitungseinheit vorzusehen, die in der Lage ist, einem Benutzer wichtige Informationen zuverlässig selbst dann zu liefern, wenn die Spracheingabe durchgeführt wird.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist eine Sprachverarbeitungseinheit vorgesehen, enthaltend eine Verarbeitungssteuervorrichtung zum Zuweisen der Priorität entweder zu der Verarbeitung eines Stimmenführungsabschnitts oder zu der Verarbeitung eines vorher durchzuführenden Spracherkennungsabschnitts, wenn der Spracherkennungsabschnitt die Spracheingabe annimmt, während der Stimmenführungsabschnitt die Stimmenführungsverarbeitung durchführt oder plant.
  • Die Erfindung wird im Folgenden anhand von in den Figuren dargestellten Ausführungsbeispielen näher erläutert. Es zeigen:
  • Fig. 1 ein Blockschaltbild, das eine funktionelle Konfiguration eines Navigationssystems wiedergibt, bei welchem ein Ausführungsbeispiel 1 der Sprachverarbeitungseinheit gemäß der vorliegenden Erfindung angewendet wird;
  • Fig. 2 ein Blockschaltbild, das eine Hardware- Konfiguration des Navigationssystems nach Fig. 1 wiedergibt;
  • Fig. 3 ein Flussdiagramm, das ein Sprachverarbeitungsverfahren nach dem Ausführungsbeispiel 1 gemäß der vorliegenden Erfindung illustriert; und
  • Fig. 4 ein Flussdiagramm, das ein Sprachverarbeitungsverfahren gemäß einem Ausführungsbeispiel 2 der vorliegenden Erfindung illustriert.
  • AUSFÜHRUNGSBEISPIEL 1
  • Fig. 1 ist ein Blockschaltbild, das eine funktionelle Konfiguration eines Navigationssystems zeigt, bei welchem ein Ausführungsbeispiel 1 der Sprachverarbeitungseinheit gemäß der vorliegenden Erfindung angewendet wird. In Fig. 1 bezeichnet die Bezugszahl 1 einen Kartendatenspeicher zum Speichern von Kartendaten, die Straßeninformationen über Straßen für fahrende Fahrzeuge anzeigen; und 2 bezeichnet einen Stimmendatenspeicher zum Speichern von Sprachführungsnachrichten zum Lenken der Fahrt des Fahrzeugs. Die Stimmenführungsnachrichten sind geteilt in Festtypnachrichten, die gemäß den Typen der Stimmenführung gespeichert sind, und Worttypnachrichten mit konkreten Werten wie Abständen und Platznamen. Die Kombination der Festtyp- und der Worttypnachrichten kann die gewünschten Nachrichten erzeugen.
  • Die Bezugszahl 3 bezeichnet einen Detektor für die gegenwärtige Position zum Erfassen der gegenwärtigen Position des Fahrzeugs durch Lesen der Ausgangsdaten eines GPS-Empfängers und verschiedener Sensoren; 4 bezeichnet einen Verkehrsinformationsempfänger zum Empfangen von Verkehrsinformationen; 5 bezeichnet einen Operationsabschnitt zur Annahme der Routeneinstellung für einen Bestimmungsort und anderer verschiedener Operationen eines Benutzers; 6 bezeichnet einen Routeneinstellabschnitt zum Suchen einer Route zu dem von dem Operationsabschnitt 5 gesetzten Bestimmungsort; 7 bezeichnet einen Spracheingabeabschnitt zur Eingabe der Sprache des Benutzers; und 8 bezeichnet einen Spracherkennungsabschnitt zum Durchführen einer Spracherkennung durch Suchen eines Spracherkennungs-Wörterbuches für die Eingangssprache.
  • Der Spracheingabeabschnitt 7 und der Spracherkennungsabschnitt 8 bilden eine Spracherkennungsvorrichtung.
  • Die Bezugszahl 9 bezeichnet eine Systemsteuervorrichtung zum Erzeugen eines Routenführungsbildes beispielsweise durch Lesen verschiedener Daten und zum Erzeugen einer Stimmenführungsnachricht, um die Stimmenführung für die gegenwärtige Situation geeignet zu machen. Die Systemsteuervorrichtung 9 steuert das gesamte System und steuert insbesondere, welcher Verarbeitung durch die Stimmausgabe-Steuervorrichtung 12 und den Spracherkennungsabschnitt 8 die Priorität zuzuweisen ist, wenn der Spracheingabeabschnitt 7 eine Spracheingabe annimmt, während die Stimmausgabe- Steuervorrichtung 12 eine Stimmenführungsverarbeitung durchführt.
  • Die Bezugszahl 10 bezeichnet eine Anzeigesteuervorrichtung zum Erzeugen von Anzeigesignalen zur Darstellung einer Straßenkarte, einer gegenwärtigen Positionsmarkierung, einer Bestimmungsmarkierung und dergleichen unter der Steuerung der Systemsteuervorrichtung 9; 11 bezeichnet eine Anzeigeabschnitt zur Darstellung der Straßenkarte, der gegenwärtigen Positionsmarkierung, der Bestimmungsortmarkierung und dergleichen in Abhängigkeit von dem von der Anzeigesteuervorrichtung 10 gelieferten Anzeigesignalen; 12 bezeichnet eine Stimmenausgabe-Steuervorrichtung zum Steuern der Ausgabe der Sprache unter der Steuerung der Systemsteuervorrichtung 9; und 13 bezeichnet einen Stimmenausgabeabschnitt zur Ausgabe der Stimme in Abhängigkeit von der Steuerung der Stimmenausgabe- Steuervorrichtung 12.
  • Die Systemsteuervorrichtung 9, die Stimmenausgabe- Steuervorrichtung 12 und der Stimmenausgabeabschnitt 13 bilden eine Stimmenführungsvorrichtung.
  • Fig. 2 ist ein Blockschaltbild, das eine Hardware- Konfiguration des Navigationssystems nach Fig. 1 zeigt. In Fig. 2 bezeichnet die Bezugszahl einen DVD- ROM entsprechend dem Kartendatenspeicher 1 und dem Stimmendatenspeicher 2; 22 bezeichnet einen DVD-ROM- Treiber zum Betrieb des DVD-ROM 21; 23 bezeichnet einen GPS-Empfänger zum Empfangen von Radiowellen vom GPS-Satelliten, um die gegenwärtige Position des Fahrzeugs zu erfassen; 24 bezeichnet einen Richtungssensor zum Erfassen der Richtung des Fahrzeugs; und 25 bezeichnet einen Abstandssensor zum Erfassen der Weglänge, die Fahrzeug zurücklegt. Der GPS-Empfänger 23, der Richtungssensor 24 und der Abstandssensor 25 entsprechen dem Detektor 3 für die gegenwärtige Position.
  • Die Bezugszahl 26 bezeichnet einen FM- Multiplexempfänger entsprechend dem Verkehrsinformationsempfänger 4; und 27 bezeichnet eine Steuereinheit zur Durchführung verschiedener Berechnungen und zur Steuerung des gesamten Systems. Die Steuereinheit 27 erzielt die Funktionen der Systemsteuervorrichtung 9, des Routeneinstellabschnitts 6, der Anzeigesteuervorrichtung 10, der Stimmenausgabe-Steuervorrichtung 12 und des Spracherkennungsabschnitts 8 nach Fig. 1. Die Bezugszahl 28 bezeichnet eine Flüssigkristallanzeige zur Darstellung der von der Steuereinheit 27 gelieferten Anzeigedaten. Diese entspricht dem Anzeigeabschnitt 11. Die Bezugszahl 29 bezeichnet eine Stimmenausgabeeinheit zur Erzeugung der Sprache. Sie entspricht dem Stimmenausgabeabschnitt 13. Die Bezugszahl 30 bezeichnet einen Eingabeschalter wie eine Fernsteuerung und einen Berührungsschalter zum Zuführen von Instruktionen wie der Eingabe eines Bestimmungsortes und der Änderung des Schirms des Anzeigeabschnittsabschnitts 11. Der Operationsabschnitt 5 ist eine der Funktionen des Eingabeschalters 30. Die Bezugszahl 31 bezeichnet ein Mikrofon für den Benutzer zur Eingabe von Sprache. Es entspricht dem Spracheingabeabschnitt 7.
  • Die Bezugszahl 41 bezeichnet eine zentrale Verarbeitungseinheit (CPU) der Steuereinheit 27; 42 bezeichnet einen ROM; 43 bezeichnet einen RAM; 44 bezeichnet eine Anzeigesteuervorrichtung zur Durchführung der Anzeigesteuerung für die Flüssigkristallanzeige 28; und 45 bezeichnet eine Eingabe/Ausgabe(I/O)- Vorrichtung zum Durchführen der Eingabe und Ausgabe zwischen der Steuereinheit 27 und der Außenseite.
  • Die Bezugszahl 51 bezeichnet einen Digital/Analog- Wandler (D/A-Wandler) zum Umwandeln einer Stimmenführungsnachricht, die in der Form von digitalen Signaldaten gelesen werden, in ein analoges Signal; 52 bezeichnet einen Verstärker zum Verstärken der in das analoge Signal umgewandelten Stimme; und 53 bezeichnete einen Lautsprecher zur Ausgabe der verstärkten Stimme.
  • Als Nächstes wird die Arbeitsweise des vorliegenden Ausführungsbeispiels 1 mit Bezug auf Fig. 3 beschrieben, die ein die Sprachverarbeitung nach dem vorliegenden Ausführungsbeispiel 1 gemäß der vorliegenden Erfindung illustrierendes Flussdiagramm darstellt.
  • Zuerst stellt die Systemsteuervorrichtung 9 fest, ob der Benutzer einen Sprachschalter drückt oder nicht, um eine Spracheingabe zu machen (Schritt ST1).
  • Der Sprachschalter ist einer der Schalter des Operationsabschnitts 5, und er wird gedrückt, wenn der Benutzer Sprache eingibt, um das System von der Spracheingabe für die Spracherkennung zu benachrichtigen. Durch Erfassung des Drückens des Sprachschalters stellt die Systemsteuervorrichtung 9 fest, ob der Stimmenausgabeabschnitt 13 nun irgendeine Stimme erzeugt (ST2).
  • Wenn keine Sprache ausgegeben wird, weist die Systemsteuervorrichtung 9 den Spracherkennungsabschnitt 8 an, die Spracherkennungsverarbeitung durchzuführen. Somit führt der Spracherkennungsabschnitt die Spracherkennung der Eingangssprache des Benutzers, die von dem Spracheingabeabschnitt 7 geliefert wird, durch (Schritt ST3).
  • Wenn andererseits die Stimme erzeugt wird, stellt die Systemsteuervorrichtung 9 den Typ der gegenwärtig ausgegebenen Stimme fest (Schritt ST4). Insbesondere stellt sie den Typ der Stimmenführung fest, um die Verarbeitung zu bestimmen, der die Priorität zuzuweisen ist.
  • Wenn z. B. die gegenwärtig ausgegebene Stimmenführung eine Nachricht über Sicherheit ist wie eine Kurvenvorhersage oder Verzögerungswarnung (z. B. "Kurve voraus, Geschwindigkeit verringern"), verhindert die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung durchführt, wodurch die Ausgabe der Stimmenführung fortgesetzt wird (Schritt ST5). In diesem Fall sendet die Systemsteuervorrichtung 9, um den Benutzer zu benachrichtigen, dass die Spracherkennungsverarbeitung nicht durchgeführt werden kann, einen Befehl für die Anzeige der Nachricht zu der Anzeigesteuervorrichtung 10 (Schritt ST6). Da dieser Typ der Stimmenführung sehr wichtig und wesentlich für den Benutzer ist, wird ihm die höchste Priorität zugewiesen.
  • Wenn der Typ der Stimmenführung zu den Verkehrsinformationen über einen Verkehrsstau und eine Verkehrsteuerung gehört, und über die Maudinformationen des ETC (elektronische Maudsammlung), wie "Verkehrsstau 1 km voraus" und "Maud beträgt 1000 Yen", führt die Systemsteuervorrichtung 9 die folgende Operation durch. Zuerst liefert sie einen Stimmenausgabe- Unterbrechungsbefehl zu der Stimmenausgabe- Steuervorrichtung 12, um die gegenwärtig ausgegebene Stimmenführung zu unterbrechen (Schritt ST7). Dann bewirkt sie, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der eingegebenen Stimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST8).
  • Nachfolgend liefert, nachdem die Spracherkennungsverarbeitung der Eingangsstimme beendet sind, die Systemsteuervorrichtung 9 einen Stimmenausgabe- Wiederaufnahmebefehl zu der Stimmenausgabe- Steuervorrichtung 12, um die unterbrochene Nachricht wieder von Anfang an auszugeben (Schritt ST9). Alternativ kann sie von dem Unterbrechungspunkt aus wieder aufgenommen werden oder sie kann ausgegeben werden, nachdem sie in eine einfachere Version aufbereitet wurde. Obgleich dieser Typ von Stimmenführung für den Benutzer notwendig ist, kann er ohne Probleme verzögert werden.
  • Wenn der Typ der Stimmenführung eine Nachricht ist, die mit der Routenführung verbunden ist, wie "rechts abbiegen 500 m voraus", liefert die Systemsteuervorrichtung 9 einen Stimmenausgabe-Haltebefehl zu der Stimmenausgabe-Steuervorrichtung 12. Somit steuert die Systemsteuervorrichtung 9 derart, dass die gegenwärtige ausgegebene Stimmenführung angehalten wird (Schritt ST10), und sie bewirkt, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingangsstimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST11). Dies folgt daraus, dass, obgleich dieser Typ von Stimmenführung für den Benutzer notwendig ist, wenn seine Ausgabe verzögert ist, der Benutzer den geführten Ort verlieren kann, da die Führung Informationen über den Abstand und dergleichen enthält. Zusätzlich legt die Betätigung des Sprachschalters durch den Benutzer nahe, dass es sinnvoll ist, dass die Systemsteuervorrichtung 9 die Feststellung trifft, dass der Benutzer die Operation gemäß der Spracherkennung wünscht anstelle der Routenführung durch die Stimme.
  • Wenn die Stimmenführung mit einem wiedergegebenen Audioausgangssignal wie Musik assoziiert ist, lässt die Systemsteuervorrichtung 9 den Lautsprecher verstummen (wenn der Stimmenausgabeabschnitt 13 die Funktion des Lautsprechers teilt, lässt sie den Sprachausgabeabschnitt 13 verstummen) (Schritt ST12). Dann bewirkt die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingangssprache durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST13).
  • Nachfolgend wird, nachdem die Spracherkennungsverarbeitung der Eingangsstimme beendet ist, die Stummschaltung des Lautsprechers freigegeben (Schritt ST14).
  • Wie vorstehend beschrieben ist, ist das Vorliegende Ausführungsbeispiel 1 so ausgebildet, dass, wenn die Spracherkennungsverarbeitung durch die Stimmeneingabe erforderlich ist, während die Stimmenführungsverarbeitung durchgeführt wird, entweder der Stimmenführungsverarbeitung oder Spracherkennungsverarbeitung eine vorher auszuführende Priorität zugewiesen wird. Demgemäß bietet das vorliegende Ausführungsbeispiel 1 den Vorteil, in der Lage zu sein, wichtige Informationen ohne Versagen zu liefern, selbst wenn die Spracheingabe durchgeführt wird.
  • Obgleich das vorliegende Ausführungsbeispiel 1 automatisch die Priorität der Stimmenführungsverarbeitung und der Spracherkennungsverarbeitung feststellt, ist dies nicht wesentlich. Z. B. ist auch eine Konfiguration möglich, bei der der Benutzer die Priorität frei einstellen kann.
  • AUSFÜHRUNGSBEISPIEL 2
  • Wenn die Spracherkennungsverarbeitung durch die Spracheingabe erforderlich ist, während die Stimmenführungsverarbeitung durchgeführt wird, wird bei dem vorhergehenden Ausführungsbeispiel 1 die Verarbeitung ausgewählt, der die Priorität für die vorhergehende Ausführung zugewiesen wird. Die jedoch ist nicht wesentlich. Wenn z. B. die Spracherkennungsverarbeitung durch die Spracheingabe erforderlich ist, während die Stimmenführungsverarbeitung planmäßig auszuführen ist, kann die Verarbeitung, der die Priorität zur vorhergehenden Ausführung zugewiesen ist, wie in Fig. 4 gezeigt, ausgewählt werden.
  • Dies wird wie folgt realisiert.
  • Zuerst stellt die Systemsteuervorrichtung 9 fest, ob der Benutzer einen Sprachschalter drückt oder nicht, um eine Spracheingabe zu machen (Schritt ST21).
  • Wenn das Drücken des Sprachschalters erfasst wird, stellt die Systemsteuervorrichtung 9 fest, ob irgendeine Stimmennachricht planmäßig von dem Stimmenausgabeabschnitt 13 auszugeben ist oder nicht (Schritt ST22). Beispielsweise wird festgestellt, ob der Sprachausgabeabschnitt 13 planmäßig eine Stimmennachricht innerhalb einer bestimmten Zeitperiode von 15 Sekunden oder 300 Millisekunden erzeugen soll.
  • Wenn geplant ist, dass keine Sprache ausgegeben werden soll, weist die Systemsteuervorrichtung 9 den Spracherkennungsabschnitt 8 an, die Spracherkennungsverarbeitung durchzuführen. Somit führt der Spracherkennungsabschnitt 8 die Spracherkennung der von dem Spracheingabeabschnitt 7 zugeführten Eingangsstimme des Benutzers durch (Schritt ST23).
  • Wenn andererseits geplant ist, dass irgendeine Stimmennachricht auszugeben ist, stellt die Systemsteuervorrichtung 9 den Typ der Stimme fest (Schritt ST24). Insbesondere stellt sie den Typ der Stimmenführung fest, um die Verarbeitung zu bestimmen, der Priorität gegeben ist.
  • Wenn z. B. geplant ist, dass die auszugebende Stimmenführung eine Nachricht über Sicherheit wie eine Kurvenvorhersage oder Verzögerungswarnung ist (z. B. "Kurve voraus, Verringern der Geschwindigkeit"), verhindert die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung durchführt, und sie ermöglicht, dass die Stimmenführung ausgegeben wird (Schritt ST25). In diesem Fall sendet die Systemsteuervorrichtung 9, um den Benutzer zu benachrichtigen, dass die Spracherkennungsverarbeitung nicht durchgeführt werden kann, einen Befehl zu der Anzeigesteuervorrichtung 10, um die Nachricht anzuzeigen (Schritt ST26).
  • Wenn der Typ der Stimmenführung zu den Verkehrsinformationen über einen Verkehrsstau und eine Verkehrssteuerung gehört, und über die Maudinformationen der ETC, wie "Verkehrsstau 1 km voraus", "Maud beträgt 1.000 Yen", führt die Systemsteuervorrichtung 9 die folgende Operation durch. Zuerst liefert sie einen Stimmenausgabe-Reservierungsbefehl zu der Stimmenausgabe-Steuervorrichtung 12, um eine für die Ausgabe geplante Stimmenführung zurückzuhalten (Schritt ST27). Dann bewirkt sie, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingabestimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST28).
  • Nachfolgend liefert, nachdem die Spracherkennungsverarbeitung der Eingabestimme beendet ist, die Systemsteuervorrichtung 9 einen Stimmenausgabe- Startbefehl zu der Stimmenausgabe-Steuervorrichtung 12, um die reservierte Nachricht auszugeben (Schritt ST29).
  • Wenn der Typ der Stimmenführung mit der Routenführung assoziiert ist wie "rechts abbiegen 500 m voraus", liefert die Systemsteuervorrichtung 9 einen Stimmenausgabe-Anhaltebefehl zu der Stimmenausgabe- Steuervorrichtung 12, um die planmäßig auszugebende Stimmenführung anzuhalten (Schritt ST30), und sie bewirkt, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingabestimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST31). Dies folgt daraus, dass die mit der Routenführung assoziierte Stimmenführung gewöhnlich mehrere Male ausgegeben wird in Übereinstimmung mit dem Abstand, anstatt nur einmal.
  • Wenn die Stimmenführung mit einer wiedergegebenen Audioausgabe wie Musik assoziiert ist, setzt die Systemsteuervorrichtung 9 den Audiosprecher still (wenn der Stimmenausgabeabschnitt 13 die Funktion des Audiosprechers teilt, wird der Stimmenausgabeabschnitt 13 stillgesetzt) (Schritt ST32). Dann bewirkt die Systemsteuervorrichtung 9, dass der Spracherkennungsabschnitt 8 die Spracherkennungsverarbeitung der Eingabestimme durchführt, die von dem Spracheingabeabschnitt 7 angenommen wurde (Schritt ST33).
  • Nachfolgend wird, nachdem die Spracherkennungsverarbeitung der Eingabeschritte beendet ist, die Stillsetzung des Audiosprechers freigegeben (Schritt ST34).
  • Wie vorstehend beschrieben ist, ist das vorliegende Ausführungsbeispiel 2 so konfiguriert, dass, wenn die Spracherkennungsverarbeitung durch die Spracheingabe erforderlich ist, während die Stimmenführungsverarbeitung planmäßig auszuführen ist, entweder der Stimmenführungsverarbeitung oder der Spracherkennungsverarbeitung die Priorität für die frühere Ausführung zugewiesen wird. Demgemäß bietet das vorliegende Ausführungsbeispiel 2 den Vorteil, in der Lage zu sein, wichtige Informationen ohne Versagen zu liefern, selbst wenn die Spracheingabe durchgeführt wird.
  • Obgleich beim vorliegenden Ausführungsbeispiel 2 automatisch die Priorität der Stimmenführungsverarbeitung und der Spracherkennungsverarbeitung festgestellt wird, ist dies nicht wesentlich. Z. B. ist auch eine Konfiguration möglich, bei der der Benutzer die Priorität frei festsetzen kann.

Claims (10)

1. Sprachverarbeitungseinheit, welche aufweist:
eine Stimmenführungsvorrichtung (9, 12, 13) zum Ausführen einer Stimmenführungsverarbeitung in Abhängigkeit von Bedingungen;
eine Spracherkennungsvorrichtung (7, 8) zum Ausführen einer Spracherkennungsverarbeitung durch Annehmen einer Spracheingabe; und
eine Verarbeitungssteuervorrichtung (9) zum Zuweisen einer Priorität für eine frühere Ausführung für entweder die Verarbeitung durch die Stimmenführungsvorrichtung oder die Verarbeitung durch die Spracherkennungsvorrichtung, wenn die Spracherkennungsvorrichtung, die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Stimmenführungsverarbeitung ausführt oder plant.
2. Sprachverarbeitungseinheit nach Anspruch 1, dadurch gekennzeichnet, dass die Verarbeitungssteuervorrichtung die vorher auszuführende Verarbeitung feststellt unter Berücksichtigung eines Typs der Stimmenführung.
3. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Sprachführung mit Sicherheitsvorkehrungen assoziiert ist, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Stimmenführungsvorrichtung, die Stimmenführungsverarbeitung durchführt, die Verarbeitungssteuervorrichtung die Stimmenführungsverarbeitung fortsetzt und die Spracherkennungserkennungsverarbeitung löscht.
4. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimmenführung mit Verkehrsinformationen oder Maudinformationen assoziiert ist, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Stimmenführungsverarbeitung durchführt, die Verarbeitungssteuervorrichtung die Stimmenführungsverarbeitung für eine Zeit aufschiebt und die Spracherkennungsverarbeitung durchführt.
5. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimmenführung mit der Routenführung assoziiert ist, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Stimmenführungsverarbeitung durchführt, die Verarbeitungssteuervorrichtung die Stimmenführungsverarbeitung anhält und die Spracherkennungsvorrichtung durchführt.
6. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimme, die die Stimmenführungsvorrichtung ausgibt wiedergegebene Audioausgangssignale sind, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Stimmenführungsverarbeitung durchführt, die Verarbeitungssteuervorrichtung einen Audiosprecher (53) stillsetzt und die Spracherkennungsvorrichtung durchführt.
7. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimmenführung mit Sicherheitsvorkehrungen assoziiert ist, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Sprachführungsvorrichtung planmäßig die Stimmenführungsverarbeitung durchführen soll, die Verarbeitungssteuervorrichtung die Spracherkennungsverarbeitung löscht.
8. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimmenführung entweder mit Verkehrsinformationen oder Maudinformationen assoziiert ist, wenn die Spracherkennungsvorrichtung die Sprachangabe annimmt, während die Stimmenführungsvorrichtung die Durchführung der Stimmenführungsverarbeitung plant, die Verarbeitungssteuervorrichtung die Stimmenführungsverarbeitung verschiebt und die Spracherkennungsverarbeitung durchführt.
9. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimmenführung mit der Routenführung assoziiert ist, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Durchführung der Stimmenführungsverarbeitung plant, die Verarbeitungssteuervorrichtung die Stimmenführungsverarbeitung anhält und die Spracherkennungsvorrichtung durchführt.
10. Sprachverarbeitungseinheit nach Anspruch 2, dadurch gekennzeichnet, dass, wenn die Stimme, die die Stimmenführungsvorrichtung ausgibt, ein wiedergegebenes Audioausgangssignal ist, wenn die Spracherkennungsvorrichtung die Spracheingabe annimmt, während die Stimmenführungsvorrichtung die Durchführung der Stimmenführungsverarbeitung plant, die Verarbeitungssteuervorrichtung einen Audiosprecher (53) stillsetzt und die Spracherkennungsvorrichtung durchführt.
DE10306082A 2002-02-13 2003-02-07 Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen Expired - Fee Related DE10306082B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-035872 2002-02-13
JP2002035872A JP3902483B2 (ja) 2002-02-13 2002-02-13 音声処理装置及び音声処理方法

Publications (2)

Publication Number Publication Date
DE10306082A1 true DE10306082A1 (de) 2003-08-28
DE10306082B4 DE10306082B4 (de) 2005-11-24

Family

ID=27654986

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10306082A Expired - Fee Related DE10306082B4 (de) 2002-02-13 2003-02-07 Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen

Country Status (3)

Country Link
US (1) US7254544B2 (de)
JP (1) JP3902483B2 (de)
DE (1) DE10306082B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773500B2 (en) 2014-02-22 2017-09-26 Audi Ag Method for acquiring at least two pieces of information to be acquired, comprising information content to be linked, using a speech dialogue device, speech dialogue device, and motor vehicle

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
JP2006227225A (ja) * 2005-02-16 2006-08-31 Alpine Electronics Inc コンテンツ提供装置及び方法
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP4832158B2 (ja) * 2006-05-16 2011-12-07 富士通東芝モバイルコミュニケーションズ株式会社 音声応答装置及びその方法
KR100819234B1 (ko) * 2006-05-25 2008-04-02 삼성전자주식회사 네비게이션 단말의 목적지 설정 방법 및 장치
JP4491438B2 (ja) * 2006-06-26 2010-06-30 Necシステムテクノロジー株式会社 音声対話装置、音声対話方法、およびプログラム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20090313010A1 (en) * 2008-06-11 2009-12-17 International Business Machines Corporation Automatic playback of a speech segment for media devices capable of pausing a media stream in response to environmental cues
JP2009302788A (ja) * 2008-06-11 2009-12-24 Konica Minolta Business Technologies Inc 画像処理装置、同装置による音声案内方法及び音声案内プログラム
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20100332236A1 (en) * 2009-06-25 2010-12-30 Blueant Wireless Pty Limited Voice-triggered operation of electronic devices
US20100330908A1 (en) * 2009-06-25 2010-12-30 Blueant Wireless Pty Limited Telecommunications device with voice-controlled functions
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9997069B2 (en) * 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9230556B2 (en) 2012-06-05 2016-01-05 Apple Inc. Voice instructions during navigation
US8965696B2 (en) 2012-06-05 2015-02-24 Apple Inc. Providing navigation instructions while operating navigation application in background
US9111380B2 (en) 2012-06-05 2015-08-18 Apple Inc. Rendering maps
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP6211256B2 (ja) * 2012-09-26 2017-10-11 株式会社ナビタイムジャパン 情報処理装置、情報処理方法、および情報処理プログラム
US9368114B2 (en) * 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CA2928005C (en) * 2013-10-20 2023-09-12 Massachusetts Institute Of Technology Using correlation structure of speech dynamics to detect neurological changes
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
JP6436831B2 (ja) * 2015-03-27 2018-12-12 三菱電機株式会社 加熱調理器
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10824386B2 (en) 2016-07-11 2020-11-03 Telenav, Inc. Navigation system with message interchange mechanism and method of operation thereof
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10248379B2 (en) * 2017-07-27 2019-04-02 Motorola Solutions, Inc. Automatic and selective context-based gating of a speech-output function of an electronic digital assistant
JP7002823B2 (ja) * 2018-12-06 2022-01-20 アルパイン株式会社 案内音声出力制御システムおよび案内音声出力制御方法
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
KR20220059629A (ko) * 2020-11-03 2022-05-10 현대자동차주식회사 차량 및 그의 제어방법
US12086501B2 (en) * 2020-12-09 2024-09-10 Cerence Operating Company Automotive infotainment system with spatially-cognizant applications that interact with a speech interface

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61249114A (ja) * 1985-04-26 1986-11-06 Omron Tateisi Electronics Co プログラマブル・コントロ−ラの音声出力ユニツト
JPS62105198A (ja) * 1985-10-31 1987-05-15 富士通株式会社 音声出力制御方式
JPH0831021B2 (ja) * 1986-10-13 1996-03-27 日本電信電話株式会社 音声ガイダンス出力制御方法
JP3398401B2 (ja) * 1992-03-16 2003-04-21 株式会社東芝 音声認識方法及び音声対話装置
JPH08146991A (ja) * 1994-11-17 1996-06-07 Canon Inc 情報処理装置及びその制御方法
US6067521A (en) * 1995-10-16 2000-05-23 Sony Corporation Interrupt correction of speech recognition for a navigation device
JP3489772B2 (ja) * 1996-11-07 2004-01-26 株式会社リコー 作業支援システム
JPH1115496A (ja) * 1997-06-26 1999-01-22 Matsushita Electric Ind Co Ltd 車載装置
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
JP3980791B2 (ja) * 1999-05-03 2007-09-26 パイオニア株式会社 音声認識装置を備えたマンマシンシステム
JP3654045B2 (ja) 1999-05-13 2005-06-02 株式会社デンソー 音声認識装置
EP1083545A3 (de) * 1999-09-09 2001-09-26 Xanavi Informatics Corporation Eigennamen Spracherkennung in einem Navigationssystem
DE10040466C2 (de) 2000-08-18 2003-04-10 Bosch Gmbh Robert Verfahren zur Steuerung einer Spracheingabe und -ausgabe

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773500B2 (en) 2014-02-22 2017-09-26 Audi Ag Method for acquiring at least two pieces of information to be acquired, comprising information content to be linked, using a speech dialogue device, speech dialogue device, and motor vehicle

Also Published As

Publication number Publication date
US20030154079A1 (en) 2003-08-14
US7254544B2 (en) 2007-08-07
JP3902483B2 (ja) 2007-04-04
JP2003233393A (ja) 2003-08-22
DE10306082B4 (de) 2005-11-24

Similar Documents

Publication Publication Date Title
DE10306082B4 (de) Sprachverarbeitungseinheit mit Prioritätszuweisungsfunktion für Ausgangsstimmen
DE69332359T2 (de) Leitungsgerät für Fahrzeuge
DE69325316T2 (de) Fahrzeugnavigationssystem
DE69009551T2 (de) System zur Steuerung des Verlaufs von mehreren Eisenbahnzügen auf einem Netz.
DE112012006617T5 (de) Bord-Informationsvorrichtung
EP1035530B1 (de) Audio-/Navigationssystem mit automatischer Einstellung benutzerabhängiger Systemparameter
DE112014006409T5 (de) Fahrzeugsteuervorrichtung und Fahrzeugsteuerverfahren
DE112009005470B4 (de) Navigationssystem
DE3017425A1 (de) Verfahren zur uebertragung einer vielzahl von echtzeit-informationsarten
DE10137670A1 (de) Notfall-Meldevorrichtung, Notfall-Meldesystem und Verfahren zum Steuern der Notfall-Meldevorrichtung
DE102017101238A1 (de) Spracherkennungs-systeme und verfahren zum automatisierten fahren
DE102005044631A1 (de) Navigationsvorrichtung
DE10330274A1 (de) Sprachgesteuertes System
DE10008226C2 (de) Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung
DE102008033016A1 (de) Audio-Führungssystem
DE19535576A1 (de) Verfahren und Vorrichtung zur Zielführungsunterstützung
EP1896285A1 (de) Vorrichtung zum unterstützen eines führens eines fahrzeugs und verfahren zum betreiben der vorrichtung
DE102010003331A1 (de) Verfahren und Vorrichtung zur Steuerung der Längsgeschwindigkeit eines Kraftfahrzeugs
EP4288954A1 (de) Verfahren zum infrastrukturgestützten assistieren eines kraftfahrzeugs
DE112009000554B4 (de) Navigationsgerät
DE102019214484A1 (de) Verfahren zum sicheren Ermitteln von Infrastrukturdaten
DE102014211834A1 (de) Verfahren und Vorrichtung zum Korrigieren eines Regelparameters für eine automatische Geschwindigkeitsregeleinrichtung eines Fahrzeugs
EP1121684B1 (de) Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
EP2514652A1 (de) Verfahren und Vorrichtung zur Begrenzung der Geschwindigkeit eines Kraftfahrzeugs
DE102021124586A1 (de) System und Verfahren zur agilen, intuitiven Steuerung von Fahrzeugfunktionen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee