[go: up one dir, main page]

DE60005326T2 - Erkennungseinheiten mit komplementären sprachmodellen - Google Patents

Erkennungseinheiten mit komplementären sprachmodellen Download PDF

Info

Publication number
DE60005326T2
DE60005326T2 DE60005326T DE60005326T DE60005326T2 DE 60005326 T2 DE60005326 T2 DE 60005326T2 DE 60005326 T DE60005326 T DE 60005326T DE 60005326 T DE60005326 T DE 60005326T DE 60005326 T2 DE60005326 T2 DE 60005326T2
Authority
DE
Germany
Prior art keywords
recognition
model
models
speech
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60005326T
Other languages
English (en)
Other versions
DE60005326D1 (de
Inventor
Eric Thelen
Stefan Besling
Meinhard Ullrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Koninklijke Philips NV
Original Assignee
Philips Intellectual Property and Standards GmbH
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Intellectual Property and Standards GmbH, Koninklijke Philips Electronics NV filed Critical Philips Intellectual Property and Standards GmbH
Publication of DE60005326D1 publication Critical patent/DE60005326D1/de
Application granted granted Critical
Publication of DE60005326T2 publication Critical patent/DE60005326T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/34Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Machine Translation (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Spracherkennungssystem mit großem Vokabular zur Erkennung einer Sequenz von gesprochenen Worten, wobei das System Eingabemittel umfasst, um ein zeitsequentielles, die Sequenz der gesprochenen Worte darstellendes Eingabemuster zu empfangen, und einen Spracherkenner mit großem Vokabular, der unter Verwendung eines dem Spracherkenner zugeordneten Erkennungsmodells mit großem Vokabular das eingegebene Muster als eine Sequenz von Worten erkennt.
  • Aus der US-amerikanischen Patentschrift 5.819.220 ist ein System zur Erkennung von Sprache in einer Internetumgebung bekannt. Das System ist insbesondere auf den Zugriff auf Informationsressourcen im World Wide Web (WWW) mittels Sprache ausgerichtet. Die mit dem Aufbau eines Spracherkennungssystems als einer Schnittstelle zum Web verbundenen Probleme unterscheiden sich sehr von denen, die in den Bereichen herkömmlicher Spracherkennung auftreten. Hauptproblem ist das große Vokabular, das das System unterstützen muss, da ein Benutzer auf praktisch jedes beliebige Dokument zu jedem beliebigen Thema zugreifen kann. Ein geeignetes Erkennungsmodell, wie beispielsweise ein Sprachmodell für derartig großen Vokabulare aufzubauen, ist äußerst schwierig, wenn nicht unmöglich. In dem bekannten System wird ein vorgegebenes Erkennungsmodell, einschließlich eines statistischen N-gramm-Sprachmodells und eines akustischen Modells, verwendet. Das Erkennungsmodell wird dynamisch unter Verwendung eines vom Web ausgelösten Wortschatzes verändert. Ein HTML-Dokument (HyperText Mark-up Language) enthält Verknüpfungen, wie beispielsweise Hypertext-Links, die dazu verwendet werden, einen Wortschatz zu identifizieren, der in dem endgültigen Wortschatz enthalten sein soll, um die Wahrscheinlichkeit bei der Worterkennungssuche zu erhöhen. Auf diese Weise wird der für die Berechnung der Spracherkennungsresultate verwendete Wortschatz durch die Einbeziehung des durch das Web ausgelösten Wortschatzes im vorhinein beeinflusst (Biasing).
  • Das bekannte System erfordert ein geeignetes, großes Vokabularmodell als ein Ausgangsmodell, um nach der Adaption ein vorbeeinflusstes Modell erhalten zu können. Tatsächlich kann das vorbeeinflusste Modell als ein konventionelles Modell mit großem Vokabular gesehen werden, das für den aktuellen Erkennungskontext optimiert wurde. Wie bereits angemerkt, ist es sehr schwierig, ein geeignetes Modell mit großem Vokabular aufzubauen, auch wenn es nur als ein Ausgangsmodell benutzt wird. Ein weiteres Problem tritt bei gewissen Erkennungsaufgaben auf, zum Beispiel bei der Erkennung der Eingabe für bestimmte Websites oder HTML-Dokumente, wie man sie beispielsweise bei Suchmaschinen oder großen elektronischen Einkaufsläden wie Buchhandlungen vorfindet. In solchen Fällen ist die Anzahl der Wörter, die man äußern kann, riesig. Ein konventionelles Modell mit großem Vokabular wird im Allgemeinen nicht in der Lage sein, die gesamte Bandbreite möglicher Wörter effektiv abzudecken. Bei einem Ausgangsmodell mit relativ wenigen Wörtern wird die Vorbeeinflussung nicht zu einem guten Erkennungsmodell führen. Wenn das Ausgangsmodell bereits annehmbar gut wäre, würde eine geeignete Vorbeeinflussung einen großen zusätzlichen Wortschatz und einen signifikanten Verarbeitungsaufwand erfordern.
  • Die vorliegende Erfindung hat zur Aufgabe, ein Erkennungssystem zu schaffen, das große Vokabulare besser handhaben kann.
  • Zur Realisierung dieser Aufgabe ist das System dadurch gekennzeichnet, dass es eine Vielzahl von N Spracherkennern mit großem Vokabular umfasst, die jeweils zu einem entsprechenden, unterschiedlichen Erkennungsmodell mit großem Vokabular gehören, wobei jedes der Erkennungsmodelle auf einen bestimmten Teil des großen Vokabulars ausgerichtet ist, und wobei das System einen Controller umfasst, der das Eingabemuster einer Vielzahl der Spracherkenner zuführt und aus den von der Vielzahl von Spracherkennern erkannten Wortsequenzen eine erkannte Wortsequenz auswählt.
  • Durch die Verwendung mehrerer Spracherkenner, jeweils mit einem spezifischen, auf einen Teil des großen Vokabulars ausgerichteten Erkennungsmodell, wird die Aufgabe, ein Erkennungsmodell für ein großes Vokabular aufzubauen, in die zu bewältigende Aufgabe zerlegt, Modelle mit großem Vokabular für spezifische Kontexte zu erstellen. Zu solchen Kontexten können Gesundheit, Unterhaltung, Computer, Kunst, Geschäft, Bildung, Regierung, Wissenschaft, Nachrichten, Reisen usw. gehören. Hervorzuheben ist, dass sich normalerweise alle derartigen Kontexte im Vokabular überlappen, zum Beispiel in den allgemeinen Wörtern der Sprache. Die Kontexte werden sich sowohl hinsichtlich der Statistiken über solche allgemeinen Wörter als auch hinsichtlich der spezifischen Fachsprache solcher Kontexte unterscheiden. Indem man mehrere dieser Modelle zur Erkennung der Eingabe benutzt, kann ein größerer Bereich von Ausdrücken mittels sorgfältig trainierter Modelle erkannt werden. Ein weiterer Vorteil bei der Verwendung mehrerer Modelle liegt darin, dass dies eine bessere Unterscheidung während der Erkennung erlaubt. Wenn man ein großes Vokabular benutzte, wurden bestimmte Ausdrücke nur in einer bestimmten Bedeutung (und Schreibweise) erkannt. Wenn ein Benutzer zum Beispiel ein Wort ausspricht, das wie "color" klingt, werden die meisten erkannten Wortsequenzen das sehr allgemeine Wort "color" beinhalten. Weniger wahrscheinlich wird sein, dass das Wort "collar" (aus einem Modekontext) erkannt wird, oder "collar" von "collared hering" (Nahrungsmittelkontext), oder "collar-bone" (Gesundheitskontext). Solche spezifischen Wörter haben keine große Chance in einem großen Vokabular erkannt zu werden, das unvermeidlich von häufig auftauchenden Wortsequenzen aus allgemeinen Wörtern dominiert wird. Bei Verwendung mehrerer Modelle wird jedes Modell eine oder mehrere in Frage kommende Wortsequenzen identifizieren, unter denen eine Auswahl getroffen werden kann. Selbst wenn in dieser abschließenden Auswahl eine Wortsequenz wie "color" ausgewählt wird, können dem Benutzer die alternativen Wortsequenzen mit "collar" präsentiert werden.
  • Vorzugsweise arbeiten die Spracherkenner parallel in dem Sinne, dass der Benutzer keine signifikante Verzögerung bei der Erkennung bemerkt. Dies kann durch Verwendung separater Spracherkennungsmaschinen (Recognition Engines) mit jeweils eigenen Verarbeitungsressourcen erreicht werden. Alternativ lässt sich dies durch Verwendung eines ausreichend leistungsfähigen Serienprozessors erzielen, der die Erkennungsaufgaben "parallel" mit Hilfe konventioneller Zeitscheibenverfahren verarbeitet.
  • Es sollte darauf hingewiesen werden, dass die Verwendung paralleler Spracherkennungsmaschinen bekannt ist. In der US-amerikanischen Patentschrift 5.754.978 wird die parallele Verwendung von Spracherkennungsmaschinen beschrieben. Alle Maschinen haben eine relativ hohe Genauigkeit von beispielsweise 95%. Die Genauigkeit lässt sich verbessern, wenn sich die 5%-Ungenauigkeit der Maschinen nicht überlappt. Um sicherzustellen, dass sich die Ungenauigkeiten nicht vollständig überlappen, können die Maschinen unterschiedlich sein. Alternativ können die Maschinen identisch sein, in welchem Fall das Eingangssignal für eine der Maschinen etwas gestört wird oder eine der Maschinen etwas gestört wird. Ein Komparator vergleicht den erkannten Text und akzeptiert ihn basierend auf dem Grad der Übereinstimmung zwischen der Ausgabe der Maschinen oder weist ihn zurück. Da das System präzise Spracherkennungsmaschinen erfordert, die es für große Vokabulare nicht gibt, bietet dieses System keine Lösung für die Spracherkennung mit großen Vokabularen. Noch verwendet das System verschiedene Modelle, die auf spezifische Bereiche eines großen Vokabulars ausgerichtet sind.
  • In der Patentschrift WO 98/10413 wird ein Dialogsystem mit einer optionalen Anzahl von Spracherkennungsmodulen beschrieben, die parallel arbeiten können. Die Module sind auf eine spezifische An der Spracherkennung ausgerichtet, wie beispielsweise die Erkennung einzelner Ziffern, die Erkennung fortlaufender Nummern, die Worterkennung mit kleinem Vokabular, die isolierte Erkennung mit großem Vokabular, die fortlaufende Worterkennung, die Schlüsselworterkennung, die Wortsequenzerkennung, die Alphabeterkennung usw. Das Dialogsystem weiß im Voraus, welche An von Eingabe der Benutzer liefern wird, und aktiviert dementsprechend ein oder mehrere der spezifischen Module. Wenn der Benutzer beispielsweise eine Nummer sprechen muss, aktiviert die Dialogmaschine die Erkennung einzelner Ziffern und die Erkennung fortlaufender Nummern, so dass der Benutzer die Nummer als Ziffern oder als fortlaufende Nummer sprechen kann. Das System bietet keine Lösung für die Handhabung großer Vokabulare.
  • Die Spracherkennungsmodelle des erfindungsgemäßen Systems können vorgegeben sein. Vorzugsweise wird, wie im abhängigen Anspruch 2 definiert, ein Modellselektor verwendet, um mindestens eines der aktiv für die Spracherkennung benutzten Modelle dynamisch auszuwählen. Die Auswahl ist vom Kontext der Benutzereingabe abhängig, wie beispielsweise dem Abfrage- oder Diktatthema. Vorzugsweise wählt der Modellselektor viele der Spracherkennungsmodule aus. In der Praxis wird mindestens eines der Modelle das normale Alltagsvokabular über allgemeine Themen repräsentieren. Ein solches Modell wird in der Regel immer benutzt.
  • In einer Ausführungsform gemäß dem abhängigen Anspruch 3 definiert das Dokument den Spracherkennungskontext. Wie im abhängigen Anspruch 5 definiert, kann dies dadurch erfolgen, dass man die im Dokument vorhandenen Wörter scannt und anschließend bestimmt, welches oder welche der Spracherkennungsmodelle am besten zur Erkennung dieser Wörter geeignet ist/sind (z. B. diejenigen Modelle, die die meisten Wörter oder Wortsequenzen mit dem Dokument gemeinsam haben).
  • In einer Ausführungsform gemäß dem abhängigen Anspruch 4 wird der Kontext (bzw. die Kontexte) in einer Web-Seite angegeben, zum Beispiel unter Verwendung einer eingebetteten Markierung (englisch „tag"), die den Kontext identifiziert. Die Seite kann auch den Kontext (oder den Kontextidentifizierer) angeben, beispielsweise über einen Link.
  • In einer Ausführungsform, wie sie im abhängigen Anspruch 6 definiert ist, versucht das System aktiv diejenigen Spracherkennungsmodelle zu identifizieren, die für die aktuelle Erkennungsaufgabe geeignet sind. Zusätzlich zu den Spracherkennungsmodellen, die momentan aktiv für die Spracherkennung benutzt werden, werden die anderen Modelle auf ihre Eignung überprüft. Diese Überprüfung kann als Hintergrundaufgabe durch Verwendung einer oder mehrerer zusätzlicher Spracherkenner erfolgen, die prüfen, ob mit den nicht benutzten Modellen ein besseres Ergebnis als mit den aktiv benutzten Modellen erzielt worden wäre. Alternativ können die aktuellen Spracherkenner verwendet werden, um die Testmodelle in Momenten zu überprüfen, in denen der Spracherkenner über ausreichende Leistungsreserven verfügt, beispielsweise, wenn der Benutzer nicht spricht. Die Überprüfung kann die gesamte Eingabe des Benutzers umfassen. Insbesondere, wenn bereits eine umfangreiche Spracheingabe durch den Benutzer vorliegt, wird die Überprüfung vorzugsweise auf die jüngste Eingabe begrenzt. Auf diese Weise können, wann immer der Benutzer das Thema schnell wechselt, besser geeignete Modelle gewählt werden. Ein Kriterium um festzulegen, welche Modelle am besten geeignet sind, das heißt die höchste Genauigkeit bei der Spracherkennung bieten, basiert vorzugsweise auf Leistungshinweisen bei der Erkennung, wie zum Beispiel Resultaten oder Vertrauenswerten.
  • In einer Ausführungsform, wie sie im abhängigen Anspruch 7 definiert ist, sind die Erkennungsmodelle hierarchisch angeordnet. Dies vereinfacht die Auswahl geeigneter Modelle. Vorzugsweise beginnt die Erkennung mit einer Anzahl relativ generischer (allgemeiner) Modelle. Wenn sich herausstellt, dass ein bestimmtes generisches Modell ein gutes Erkennungsresultat liefert, können speziellere Modelle getestet werden, um die Erkennung noch weiter zu verbessern. Manche der spezielleren Modelle können mit mehreren allgemeineren Modellen gemeinsam genutzt werden. Falls die Erkennungsresultate eines spezielleren Modells zu einem bestimmten Zeitpunkt schlechter werden, können mehrere der allgemeineren Modelle ausprobiert werden, die in der Hierarchie über dem speziellen Modell angeordnet sind. Dies gestattet einen lückenlosen Übergang von einem Kontext zum anderen. Ein Benutzer beginnt beispielsweise damit, einen generischen Kontext über Gesundheit einzugeben. In einem bestimmten Moment wird möglicherweise festgestellt, dass sich der Benutzer hauptsächlich auf den spezielleren Kontext von medizinischen Zentren oder Instituten konzentriert, und sogar bis hin zu dem sehr speziellen Kontext von Gesundheitsfarmen. Insbesondere, wenn sich die Gesundheitsfarm in einer attraktiven Gegend befindet, kann dies den Benutzer dazu veranlassen, zu dem allgemeineren Kontext von Ferien oder Reisen, oder genauer das Reisen in der Gegend der Gesundheitsfarm, überzugehen.
  • Wie im abhängigen Anspruch 8 definiert, kann die Spracherkennung durch einen separaten Erkennungsserver erfolgen. Im Kontext des Internets könnte ein solcher Server eine separate Station im Internet sein, oder in vorhandene Stationen, wie beispielsweise eine Suchmaschine, integriert sein, oder ein Diensteanbieter sein, wie beispielsweise eine elektronische Buchhandlung. Insbesondere Erkennungsserver, die für viele Benutzer arbeiten, müssen ein Vokabular unterstützen, das für die meisten Benutzer geeignet ist. Die Verwendung mehrerer Modelle mit großem Vokabular sorgt dafür, dass ein solches System besser geeignet ist, diese Aufgabe mit einer hohen Erkennungsgenauigkeit durchzuführen.
  • Diese und andere Aspekte der Erfindung ergeben sich aus den nachfolgend beschriebenen Ausführungsformen und werden durch diese sowie die begleitenden Zeichnungen näher erläutert.
  • 1 zeigt die Struktur einer Spracherkennung mit großem Vokabular;
  • 2 veranschaulicht ein vollständiges Wortmodell;
  • 3 zeigt das Blockdiagramm eines erfindungsgemäßen Systems;
  • 4 zeigt eine Hierarchie von Erkennungsmodellen; und
  • 5 zeigt das Blockdiagramm eines erfindungsgemäßen verteilten Systems.
  • Spracherkennungssysteme, wie beispielsweise kontinuierliche Spracherkennungssysteme mit großem Vokabular, verwenden in der Regel eine Reihe von Erkennungsmodellen, um ein Eingabemuster zu erkennen. Beispielsweise können ein Akustikmodell und ein Vokabular verwendet werden, um Wörter zu erkennen, und ein Sprachmodell kann benutzt werden, um die grundlegenden Erkennungsresultate zu verbessern. 1 veranschaulicht die typische Struktur eines kontinuierlichen Spracherkennungssystems mit großem Vokabular 100 [siehe L. Rabiner, B-H. Juang, "Fundamentals of speech recognition", Prentice Hall 1993, Seiten 434–454]. Das System 100 umfasst ein Spektralanalyse-Teilsystem 110 und ein Einheitenabgleich-Teilsystem 120. Im Spektralanalyse-Teilsystem 110 wird das Spracheingabesignal (speech input signal, SIS) spektral und/oder temporär analysiert, um einen repräsentativen Merkmalsvektor (Beobachtungsvektor, OV) zu berechnen. In der Regel wird das Sprachsignal digitalisiert (z. B. mit einer Rate von 6,67 kHz abgetastet) und vorverarbeitet, beispielsweise indem eine Preemphasis angewandt wird. Nachfolgende Abtastungen werden in Rahmen gruppenweise (blockweise) zusammengefasst, die beispielsweise 32 ms des Sprachsignals entsprechen. Aufeinander folgende Rahmen überlappen sich teilweise, zum Beispiel um 16 ms. Als Spektralanalyseverfahren wird häufig Linear Predictive Coding (LPC) eingesetzt, um für jeden Rahmen einen repräsentativen Merkmalsvektor (Beobachtungsvektor) zu berechnen. Der Merkmalsvektor kann beispielsweise 24, 32 oder 63 Komponenten haben. Die standardmäßige Vorgehensweise bei kontinuierlichen Spracherkennungssystemen mit großem Vokabular besteht in der Annahme eines Wahrscheinlichkeitsmodells der Sprachproduktion, wobei eine spezifische Wortsequenz W = w1w2w3 ... wq eine Sequenz von akustischen Beobachtungsvektoren Y = y1y2y3 ... yT erzeugt. Der Erkennungsfehler lässt sich statistisch minimieren, indem man die Sequenz der Wörter w1w2w3 ... wq bestimmt, die aller Wahrscheinlichkeit nach die beobachtete Sequenz von Beobachtungsvektoren y1y2y3 ... yT (über die Zeit t = 1, ..., T) verursacht haben, wobei die Beobachtungsvektoren das Resultat des Spektralanalyse-Teilsystems 110 sind. Dies führt zur Bestimmung der maximalen a-posteriori-Wahrscheinlichkeit:
    max. P(W|Y), für alle möglichen Wortsequenzen W
  • Indem man Bayes' Theorem über bedingte Wahrscheinlichkeiten anwendet, ist P(W|Y) gegeben durch: P(W|Y) = P(Y|W)·P(W)/P(Y)
  • Da P(Y) unabhängig von W ist, ist die wahrscheinlichste Wortsequenz gegeben durch:
    arg max. P(W|Y)·P(W) für alle möglichen Wortsequenzen W (1).
  • Im Einheitenabgleich-Teilsystem 120 liefert ein Akustikmodell den ersten Term der Gleichung (1). Das Akustikmodell wird benutzt, um die Wahrscheinlichkeit P(W|Y) einer Sequenz von Beobachtungsvektoren Y für eine gegebene Wortkette W zu schätzen. Bei einem System mit großem Vokabular geschieht dies in der Regel dadurch, dass die Beobachtungsvektoren mit einem Verzeichnis von Spracherkennungseinheiten abgeglichen werden. Eine Spracherkennungseinheit wird durch eine Sequenz aus akustischen Referenzen repräsentiert. Es können verschiedene Formen von Spracherkennungseinheiten verwendet werden. Beispielsweise kann ein ganzes Wort oder auch eine Gruppe von Wörtern durch eine einzige Spracherkennungseinheit repräsentiert werden. Ein Wortmodell (WM) bietet für jedes Wort eines gegebenen Vokabulars eine Transkription in Form einer Sequenz akustischer Referenzen. In Systemen, bei denen ein ganzes Wort durch eine Spracherkennungseinheit repräsentiert wird, besteht eine direkte Beziehung zwischen dem Wortmodell und der Spracherkennungseinheit. Andere Systeme, insbesondere Systeme mit großem Vokabular, können für die Spracherkennungseinheit sowohl linguistisch basierte Subworteinheiten, wie beispielsweise Phone, Diphone oder Silben, als auch Ableitungseinheiten, wie beispielsweise Fenene und Fenone, verwenden. Bei solchen Systemen wird ein Wortmodell durch ein Lexikon 134, das die zu einem Wort des Vokabulars gehörende Sequenz der Subworteinheiten beschreibt, und die Subwortmodelle 132, die die Sequenzen der akustischen Referenzen der betroffenen Spracherkennungseinheit beschreiben, vorgegeben. Ein Wortmodell-Zusammensetzer 136 setzt das Wortmodell basierend auf dem Subwortmodell 132 und dem Lexikon 134 zusammen. 2 veranschaulicht ein Wortmodell 220 für ein auf Subworteinheiten basierendes System, wobei das gezeigte Wort durch eine Sequenz aus drei Subwortmodellen (250, 260 und 270) jeweils mit einer Sequenz aus vier akustischen Referenzen (251, 252, 253, 254; 261 bis 264; 271 bis 274) gebildet wird. Das in 2 gezeigte Wortmodell basiert auf den Hidden-Markov-Modellen (HMMs), die häufig bei der stochastischen Bildung von Sprachsignalen eingesetzt werden. Bei diesem Modell ist jede Erkennungseinheit (Wortmodell oder Subwortmodell) typischerweise durch ein HMM gekennzeichnet, dessen Parameter anhand eines Trainingsdatensatzes geschätzt werden. Bei Spracherkennungssystemen mit großem Vokabular wird normalerweise ein begrenzter Satz von beispielsweise 40 Subworteinheiten verwendet, da sehr viele Trainingsdaten erforderlich wären, um ein HMM für größere Einheiten zu trainieren. Ein HMM-Status entspricht einer akustischen Referenz. Für die Bildung einer Referenz sind verschiedene Verfahren bekannt, einschließlich diskreter oder kontinuierlicher Wahrscheinlichkeitsdichten. Jede Sequenz der akustischen Referenzen, die zu einer bestimmten Äußerung gehört, wird auch als eine akustische Transkription der Äußerung bezeichnet. Hervorzuheben ist, dass bei Verwendung anderer Erkennungsverfahren als HMMs Details der akustischen Transkription unterschiedlich sein werden.
  • Ein Abgleichsystem auf Wortebene 130 in 1 gleicht die Beobachtungsvektoren mit allen Sequenzen der Spracherkennungseinheiten ab und liefert die Wahrscheinlichkeit einer Übereinstimmung zwischen dem Vektor und einer Sequenz. Bei Verwendung von Subworteinheiten können den Übereinstimmungen unter Verwendung eines Lexikons 134 Beschränkungen auferlegt werden, um die möglichen Sequenzen von Subworteinheiten auf Sequenzen im Lexikon 134 zu begrenzen. Dies reduziert das Resultat auf mögliche Sequenzen von Wörtern.
  • Für eine vollständige Erkennung wird vorzugsweise auch ein Abgleichsystem auf Satzebene 140 verwendet, das, basierend auf einem Sprachmodell (LM), weitere Beschränkungen für die Übereinstimmung auferlegt, so dass die untersuchten Pfade definitiv zu Wortsequenzen gehören, die vom Sprachmodell als geeignete Sequenzen spezifiziert wurden. Das Sprachmodell an sich liefert den zweiten Term P(W) der Gleichung (1). Indem man die Resultate des akustischen Modells mit dem Sprachmodell kombiniert, erhält man ein Ergebnis des Einheitenabgleich-Teilsystems 120, das ein erkannter Satz (RS) 152 ist. Das bei der Mustererkennung verwendete Sprachmodell kann syntaktische und/oder semantische Beschränkungen 142 der Sprache und der Erkennungsaufgabe enthalten. Ein auf syntaktischen Beschränkungen basierendes Sprachmodell wird üblicherweise als eine Grammatik 144 bezeichnet. Die vom Sprachmodell benutzte Grammatik 144 liefert die Wahrscheinlichkeit einer Wortsequenz W = w1w2w3 ... wq, die im Prinzip gegeben ist durch: P(W) = P(w1)P(w2|w1)·P(w1)P(w3|w1w2) ... P(wq|w1w2w3 ... wq).
  • Da es in der Praxis unmöglich ist, die bedingten Wortwahrscheinlichkeiten für alle Wörter und alle Sequenzlängen in einer gegebenen Sprache zuverlässig zu schätzen, werden häufig n-gramm-Wortmodelle verwendet. Bei einem n-gramm-Wortmodell nähert man sich dem Term P(wj|w1w2w3 ... wj–1) durch P(wj|wj–N+1 ... wj–1) an. In der Praxis werden Bigramme oder Trigramme verwendet. In einem Trigramm nähert man sich dem Term P(wj|w1w2w3 ... wj–1) durch P(wj|wj–2wj–1) an.
  • 3 zeigt das Blockdiagramm eines Spracherkennungssystems 300 gemäß der Erfindung. Beispiele für die Arbeitsweise des Systems werden insbesondere für eine Anwendung beschrieben, bei der erkannte Sprache in eine textuale oder ähnliche Darstellung konvertiert wird. Eine solche textuale Darstellung kann für Diktatzwecke verwendet werden, bei der die Textdarstellung in ein Dokument, z. B. in einem Textverarbeitungsprogramm, oder in ein Textfeld, z. B. zur Spezifizierung eines Datenbankfelds, eingegeben wird. Für das Diktieren unterstützen Spracherkenner mit großem Vokabular ein aktives Vokabular und Lexikon mit bis zu 60.000 Wörtern. Es ist schwierig, genügend relevante Daten zu erhalten, um Modelle aufzubauen, die eine ausreichend genaue Erkennung für eine viel größere Anzahl von Wörtern bieten. In der Regel kann der Benutzer eine begrenzte Anzahl von Wörtern zum aktiven Vokabular/Lexikon hinzufügen. Diese Wörter können von einem Hintergrundvokabular mit 300.000 bis 500.00 Wörtern (das auch eine akustische Transkription der Wörter enthält) abgerufen werden. Für das Diktieren oder ähnliche Zwecke umfasst ein großes Vokabular beispielsweise mindestens 100.000 aktive Wörter oder sogar mehr als 300.000 aktive Wörter. Hervorzuheben ist, dass insbesondere für eine Internetumgebung, in der durch einen Klick auf einen Link ein vollständig unterschiedlicher Kontext geschaffen werden kann, vorzugsweise zahlreiche der Wörter des Hintergrundvokabulars aktiv erkannt werden können. Für andere Erkennungsaufgaben, wie beispielsweise das Erkennen von Namen, die normalerweise aus einer einfachen, mit einer gewissen Form von früherer Namenswahrscheinlichkeit verbundenen Liste bestehen, für die jedoch kein hochwertiges Sprachmodell existiert, kann ein Vokabular mit mehr als 50.000 Wörtern bereits als groß eingestuft werden.
  • Es wird verständlich sein, dass das Erkennungsresultat nicht für Diktatzwecke verwendet werden muss. Es kann genauso gut als Eingabe für andere Systeme, wie zum Beispiel Dialogsysteme, verwendet werden, bei denen, je nach erkannter Sprache, Informationen aus einer Datenbank abgerufen werden oder eine Operation durchgeführt wird, wie beispielsweise eine Buchbestellung oder eine Reisereservierung.
  • In 3 wird ein Einzelsystem 300 gezeigt, das vorzugsweise auf einem Computer, wie beispielsweise einem PC, realisiert wird. Das Element 310 stellt eine Anschlussverbindung für den Empfang eines sprachrepräsentativen Signals von einem Benutzer dar. Zum Beispiel kann ein Mikrofon an der Verbindung 310 angeschlossen werden. Es ist zu beachten, dass das Sprachsignal auch bereits aufgezeichnet sein oder von einer entfernten Stelle, z. B. über ein Telefon oder ein Netzwerk, abgerufen werden kann. Das System 300 umfasst eine Schnittstelle 320, um die Eingabe des Benutzers zu empfangen. Dies kann beispielsweise mit Hilfe einer konventionellen Soundkarte realisiert werden. Falls die Schnittstelle einen Eingang für den Empfang von Sprache in analoger Form hat, umfasst sie vorzugsweise einen A/D-Umsetzer, um die analoge Sprache in digitale Abtastwerte mit einem für die Weiterverarbeitung durch ein Spracherkennungssystem 330 geeigneten Format zu konvertieren. Wenn die Schnittstelle einen Eingang für den Empfang der Sprache in einem digitalen Format hat, ist der Umsetzer vorzugsweise in der Lage, das digitale Signal in ein für die Weiterverarbeitung geeignetes digitales Format zu konvertieren. Das Spracherkennungssystem 330 analysiert in der Regel das Eingangssignal, wie beispielsweise für das Spektralanalyse-Teilsystem 110 aus 1 beschrieben. Gemäß der Erfindung umfasst das Spracherkennungssystem 330 eine Vielzahl von Spracherkennern mit großem Vokabular, die jeweils einem entsprechenden, unterschiedlichen Erkennungsmodell mit großem Vokabular zugeordnet sind. Bei einer typischen Erkennung, wie sie in 1 dargestellt ist, können die einzelnen Spracherkenner das modellunabhängige Spektralanalyse-Teilsystem 110 aus 1 mit anderen teilen, wie in 3 unter dem Bezugszeichen 335 gezeigt. 3 veranschaulicht die Verwendung von drei separaten Spracherkennenn 331, 332 und 333. Die Spracherkenner können denselben Algorithmus verwenden, wobei die Unterschiede in den jeweils benutzten Modellen liegen, wie beispielsweise dem Vokabular und dem Sprachmodell. Die Spracherkennung ist vorzugsweise sprecherunabhängig und gestattet eine kontinuierliche Spracheingabe. Die Spracherkennung an sich ist bekannt und wurde in verschiedenen Dokumenten beschrieben, zum Beispiel in der Patentschrift EP 92202782.6 , entsprechend US-Seriennummer 08/425.304 (PHD 91.136), in der Patentschrift EP 92202783.4 , entsprechend US-Seriennummer 08/751.377 (PHD 91.138), und in der Patentschrift EP 94200475.5 , entsprechend US-Patent 5.634.083 (PHD 93.034), alle von dem Anmelder der vorliegenden Erfindung. Die Spracherkenner arbeiten "parallel" in dem Sinne, dass sie unabhängig voneinander dieselbe Spracheingabe im beinahe selben Moment erkennen. Dies lässt sich realisieren, indem für jeden der Spracherkenner separate Ressourcen verwendet werden, wie beispielsweise ein separater Prozessor oder eine separate Verarbeitungseinheit in einem "parallel" arbeitenden Prozessor, z. B. einem VLIW-Prozessor. Eine ähnlich "parallele" Durchführung kann auch bei einem herkömmlichen sequentiellen Prozessor mit ausreichend großer Leistungsfähigkeit erreicht werden, wobei jede Spracherkennung als eine separate Aufgabe ausgeführt wird. Vorzugsweise erfolgt die Spracherkennung in "Echtzeit", in dem Sinne, dass bei der Erkennung eines Wortes keine signifikante Verzögerung auftritt, nachdem das Wort vom System empfangen wurde.
  • Erfindungsgemäß ist jeder der Spracherkenner mit großem Vokabular einem entsprechenden, unterschiedlichen Erkennungsmodell mit großem Vokabular zugeordnet, wobei jedes der Erkennungsmodelle auf einen spezifischen Teil des großen Vokabulars ausgerichtet ist. Die Modelle werden vorzugsweise aus einem Speicher 340 geladen. Für die Beschreibung hier wird unter einem Spracherkennungsmodell ein kohärenter Satz von Modellen verstanden, der für eine einzelne Erkennungsaufgabe verwendet wird. Bezug nehmend auf 1 besteht das Erkennungsmodell beispielsweise aus einem Wortmodell (Lexikon 134 und Subwortmodell 132) und einem Sprachmodell (Grammatik 144 und semantische Beschränkungen 142) für einen bestimmten Teil des großen Vokabulars. Natürlich kann und wird zwischen den verschiedenen Erkennungsmodellen im Normalfall eine Überlappung bestehen. Üblicherweise wird eine derartige Überlappung im Teil des Vokabulars auftreten. Das Sprachmodell kann außerdem teilweise oder sogar vollständig dasselbe sein. In einem einfachen System entspricht die Anzahl der Erkennungsmodelle der Anzahl der Spracherkenner; jeder Spracherkenner ist dabei in einer festen Eins-zu-Eins-Beziehung einem exklusiven Erkennungsmodell zugeordnet. Vorzugsweise umfasst das System mehr Modelle als aktive Spracherkenner, wie unten noch ausführlich beschrieben werden wird. Die Figur zeigt acht Modelle 341 bis 348.
  • Die Ausgabe der Spracherkenner wird an einen Controller 350 geleitet, um die abschließende Auswahl einer erkannten Wortsequenz zu treffen. Die einzelnen Spracherkenner 331 bis 333 produzieren eventuell nur eine erkannte Wortsequenz. Alternativ können auch mehrere Sequenzen (z. B. dargestellt durch einen Wortgraph) produziert werden. Vorzugsweise beinhaltet das Resultat der einzelnen Spracherkenner Informationen, wie beispielsweise Mutmaßlichkeit oder Vertrauenswerte, die es dem Controller 350 ermöglichen, die wahrscheinlichste Wortsequenz auszuwählen. Der Controller 350 ist zudem dafür verantwortlich, die Spracheingabe den Spracherkennern zuzuführen. Diese Zuführung kann festgelegt sein, wenn die Anzahl der aktiven Spracherkenner konstant ist, in welchem Fall der Controller 350 keine spezifische Aufgabe für die Zuführung hat.
  • In einer bevorzugten Ausführungsform umfasst das System mehr Erkennungsmodelle (M) als aktive Spracherkenner (N). Ein Modellselektor 360 dient dazu, in Abhängigkeit von einem Erkennungskontext für mindestens einen der Spracherkenner das zugehörige Erkennungsmodell aus den M Modellen auszuwählen. Der Modellselektor 360 kann für jeden der aktiven Spracherkenner ein Modell auswählen. Zu bevorzugen ist allerdings, dass ein das allgemein benutzte Vokabular abdeckende Basiserkennungsmodell ständig aktiv ist. In einem solchen Falle braucht mindestens ein Modell nicht vom Modellselektor 360 ausgewählt zu werden und kann einem Spracherkenner fest zugeordnet sein.
  • In einer weiteren Ausführungsform wird mindestens ein Erkennungsmodell auf der Basis eines Kontextes ausgewählt, der durch ein Dokument bestimmt wird, auf das sich die Spracheingabe bezieht. Wenn ein Benutzer beispielsweise ein Dokument zum Thema Gesundheit diktiert, kann ein Spracherkenner mit einem spezifischen Erkennungsmodell geladen werden, das für die Erkennung von Sprache mit Bezug auf das Thema Gesundheit optimiert ist. Der Benutzer kann den Kontext für das Dokument explizit angeben, beispielsweise durch Auswählen aus einer Liste möglicher Kontexte, die den Modellen des Systems entsprechen. In diesem Fall kann das System 300 dem Benutzer eine solche Liste auf herkömmliche Weise anbieten, beispielsweise über ein Auswahlfeld in einem Fenster. Das System kann auch den Kontext automatisch bestimmen, in dem es zum Beispiel den im Dokument bereits vorhandenen oder bis dahin gesprochenen Text scannt und überprüft, welches der Modelle am besten für die Erkennung eines solchen Textes geeignet ist (z. B. bei welchem Modell die meisten Wörter oder Wortsequenzen mit dem bisherigen Text übereinstimmen). Weiterhin kann dem Dokument ein Kontextidentifizierer zugeordnet sein und vom System 300 erhalten werden, um das am besten geeignete Modell zu bestimmen. Bei Sprache mit Bezug auf Web-Seiten, wie beispielsweise eine HTML-Seite, sollte(n) der (oder die) Kontexte) des Dokuments vorzugsweise im Dokument oder in Verbindung mit dem Dokument spezifiziert sein. Dies kann in Form von einer Markierung (englisch „tag") geschehen, die von dem Autor der ursprünglichen Web-Seite eingefügt wird, auf die sich die Sprache bezieht. Die Markierung kann den Kontext explizit angeben, zum Beispiel in Form eines textualen Themas wie Sport, Gesundheit; Unterhaltung usw. Die Spezifizierung kann auch indirekt erfolgen, beispielsweise in Form eines Identifizierers wie einer Kontextnummer oder auch einer Verknüpfung (z. B. Hypertextlink) zu einer den Kontext spezifizierenden Stelle. In letzterem Fall kann das System 300 den eigentlichen Kontext von der impliziten Kontextspezifizierung ableiten (z. B. indem man eine Kontextnummer auf eines der Erkennungsmodelle abbildet oder auf den Hypertextlink zugreift und die Kontextinformation erhält).
  • In einer bevorzugten Ausführungsform versucht der Modellselektor 360 aktiv die Spracherkennung zu verbessern, indem er prüft, welches der verfügbaren Erkennungsmodelle am besten für die jeweilige Spracherkennung geeignet ist. Zu diesem Zweck steuert der Modellselektor 360 mindestens einen Testerkenner; dargestellt ist der Erkenner 334. Der Testerkenner 334 ist mit einem der Erkennungsmodelle gekoppelt, das noch nicht vom aktiven Erkenner 331 bis 333 benutzt wird. Die empfangene Sprache wird teilweise (oder sogar vollständig) auch in den Testerkenner eingespeist. Das Resultat der Testerkennung wird mit dem Resultat der vom Controller 350 getroffenen Auswahl oder dem Resultat der einzelnen aktiven Erkenner 331 bis 333 verglichen. Falls das Erkennungsresultat des Testerkenners 334 besser als das Erkennungsresultat eines der aktiven Erkenner 331 bis 333 ist, wird das Testerkennungsmodell (d. h. das momentan vom Testerkenner 334 benutzte Modell) für die Benutzung durch einen der aktiven Erkenner geladen. Vorzugsweise wird das Modell, das die schlechtesten Erkennungsresultate ergab, ersetzt (möglichst mit Ausnahme des Basiserkennungsmodells, das immer benutzt werden könnte).
  • Vorzugsweise sind die Erkennungsmodelle hierarchisch angeordnet, von Modellen mit einem eher generischen (allgemeineren) Kontext hin zu Modellen mit einem eher spezifischen Kontext. 4 zeigt eine derartige Hierarchie mit vier sehr generischen Modellen 410, 420, 430 und 440, die beispielsweise die jeweils allgemeinen Themen Unterhaltung, Gesundheit, Reisen und Computer abdecken. Ein generisches Modell wird aufgebaut, indem man repräsentative Texte für alle Fragestellungen zu einem Thema analysiert. Wie man Modelle aus repräsentativen Texten aufbauen kann, ist an sich allgemein bekannt. Das generische Gesundheitsmodell kann mit hierarchisch untergeordneten (d. h. spezifischeren) Modellen verbunden sein, wie beispielsweise mit Bezug auf Medizin, Chirurgie, Nahrungsmittel/Ernährung, Krankenhäuser/medizinische Zentren. Jedes dieser Modelle wird unter Verwendung von Texten erstellt, die sich auf solche spezielleren Themen beziehen. In der Figur kann sich das Modell 422 auf Krankenhäuser/medizinische Zentren beziehen. Innerhalb dieses Kontexts kann eine weitere Unterteilung getroffen werden, bei der beispielsweise das Modell 424 Gesundheitsfarmen abdeckt. Indem Texte, die sich auf Gesundheitsfarmen beziehen, analysiert werden, wird automatisch ein Erkennungsmodell erstellt, das sich auch für die Erkennung von Sprache mit Bezug auf bestimmte Reisethemen eignet, weil in Dokumenten über Gesundheitsfarmen üblicherweise auch die Umgebung beschrieben wird. Dadurch ist dasselbe Modell auch geeignet, um als ein dem Modell 432 in der Kategorie Reisemodelle hierarchisch untergeordnetes Modell benutzt zu werden. Der Modellselektor 360 kann die Erkennung mit einem spezielleren Modell aktivieren, falls die Erkennung mit einem bestimmten Modell gute Erkennungsresultate ergibt. Ein solches spezielleres (d. h. hierarchisch untergeordnetes) Modell kann als Ersatz für das allgemeinere Modell benutzt werden. Es kann auch zusätzlich zu dem allgemeineren Modell benutzt werden. Vorzugsweise findet die zusätzliche Erkennung mit spezielleren Modellen nur dann statt, wenn das allgemeinere Modell gute Resultate im Vergleich zu anderen Modellen ergibt, die sich ohne hierarchische Beziehung auf derselben Hierarchieebene wie das allgemeinere Modell befinden. Wenn beispielsweise ein Sport- und ein Gesundheitsmodell keine hierarchische Beziehung haben (z. B. beide auf der höchsten Ebene) und die Verwendung des Sportmodells bessere Resultate ergibt, dann kann das speziellere Modell benutzt werden. Es besteht kein Anlass, noch speziellere Gesundheitsmodelle zu benutzen. Falls das Erkennungsresultat des Gesundheitsmodells tatsächlich sehr gering ausfällt, dann kann die Erkennung mit diesem Modell zugunsten einer zusätzlichen Erkennung mit einem spezielleren Sportmodell beendet werden. Wenn mehrere speziellere Sportmodelle existieren, z. B. für Fußball, Baseball, Leichtathletik, Autorennen usw., dann kann jedes dieser Modelle getestet werden. Die Auswahl kann auch einfach auf der Übereinstimmung der Vokabulare der verschiedenen Modelle mit der bereits erkannten Sprache beruhen. Falls die Erkennung mit einem speziellen Modell zu einem bestimmten Zeitpunkt geringe Resultate ergibt, wird die Erkennung vorzugsweise mit mindestens einem dem speziellen Modell hierarchisch übergeordneten Modell fortgesetzt.
  • In einer bevorzugten Ausführungsform, wie sie in 5 dargestellt ist, ist das Erkennungssystem verteilt. Das verteilte System umfasst eine Serverstation 540 und mindestens eine Benutzerstation. Dargestellt sind drei Benutzerstationen 510, 520 und 530, wobei weitere Details nur für die Benutzerstation 520 gezeigt werden. Die Stationen können unter Verwendung konventioneller Computertechnologie realisiert werden. Beispielsweise kann die Benutzerstation 520 durch einen Desktop-PC oder eine Workstation gebildet werden, während die Serverstation 540 durch einen PC-Server oder einen Workstation-Server gebildet werden kann. Die Computer arbeiten unter der Kontrolle eines geeigneten, in den Prozessor des Computers geladenen Programms. Die Serverstation 540 und die Benutzerstationen 510, 520 und 530 sind über ein Netzwerk 550 miteinander verbunden. Das Netzwerk 550 kann jedes geeignete Netzwerk sein, wie ein lokales Netz (LAN), beispielsweise in einer Büroumgebung, oder ein weiträumiges Netz (WAN), vorzugsweise das Internet. Die Stationen umfassen Kommunikationsmittel 522 bzw. 542, um über das Netzwerk 550 miteinander zu kommunizieren. Dabei können alle für die Benutzung in Verbindung mit dem Netzwerk 550 geeigneten Kommunikationsmittel verwendet werden. Üblicherweise bestehen die Kommunikationsmittel aus einer Kombination aus Hardware, wie beispielsweise eine Kommunikationsschnittstelle oder ein Modem, und Software in Form eines Softwaretreibers, der ein spezifisches Kommunikationsprotokoll unterstützt, wie beispielsweise die TCP/IP-Protokolle des Internets. Die Benutzerstation 520 umfasst Mittel, um Sprache von einem Benutzer, beispielsweise über eine Schnittstelle 528, zu empfangen. Weiterhin umfasst die Benutzerstation 520 Mittel zur Vorverarbeitung der Sprache, damit sie für die Übertragung zur Serverstation 540 geeignet ist. Die Benutzerstation kann beispielsweise ein Spektralanalyse-Teilsystem 526 ähnlich dem Spektralanalyse-Teilsystem 110 aus 1 umfassen. Die Serverstation 540 führt alle anderen Aufgaben aus, wie für das System 300 aus 3 beschrieben. Die Serverstation 540 kann beispielsweise ein Erkennungssystem 543 mit einer Vielzahl von Erkennern (ähnlich dem Erkennungssystem 335 aus 3), einen Controller (ähnlich dem Controller 350 aus 3), einen Modellselektor 545 (ähnlich dem Modellselektor 360 aus 3) und einen Speicher 546 zur Speicherung der Modelle (ähnlich dem Speicher 340 aus 3) umfassen.

Claims (8)

  1. Spracherkennungssystem mit großem Vokabular zur Erkennung einer Sequenz von gesprochenen Worten, wobei das System Folgendes umfasst: Eingabemittel, um ein zeitsequentielles, die Sequenz der gesprochenen Worte darstellendes Eingabemuster zu empfangen; und Einen Spracherkenner mit großem Vokabular, der unter Verwendung eines dem Spracherkenner zugeordneten Erkennungsmodells mit großem Vokabular das eingegebene Muster als eine Sequenz von Worten erkennt, dadurch gekennzeichnet, dass das System eine Vielzahl von N Spracherkennern mit großem Vokabular umfasst, die jeweils zu einem entsprechenden, unterschiedlichen Erkennungsmodell mit großem Vokabular gehören, wobei jedes der Erkennungsmodelle auf einen bestimmten Teil des großen Vokabulars ausgerichtet ist; und das System einen Controller umfasst, der das Eingabemuster einer Vielzahl der Spracherkenner zuführt und aus den von der Vielzahl von Spracherkennern erkannten Wortsequenzen eine erkannte Wortsequenz auswählt.
  2. System nach Anspruch 1, wobei das System M Erkennungsmodelle mit großem Vokabular umfasst, wobei M > N, und das System einen Modellselektor umfasst, der dazu dient, in Abhängigkeit von einem Erkennungskontext für mindestens einen der Spracherkenner das zugehörige Erkennungsmodell aus den M Modellen auszuwählen.
  3. System nach Anspruch 2, wobei ein Dokument, auf das sich die Spracheingabe bezieht, mindestens einen Erkennungskontext bestimmt.
  4. System nach Anspruch 3, wobei das Dokument eine Web-Seite ist, wie beispielsweise eine HTML-Seite, und der (oder die) Kontexte) des Dokuments vorzugsweise im Dokument oder in Verbindung mit dem Dokument spezifiziert werden.
  5. System nach Anspruch 3, wobei der Modellselektor dazu dient, das Erkennungsmodell in Abhängigkeit von Wörtern auszuwählen, die in dem Dokument oder mit diesem in Zusammenhang stehen.
  6. System nach Anspruch 3, wobei der Modellselektor zu Folgendem dient: Auswahl eines Testerkennungsmodells aus den M-N Erkennungsmodellen, die noch nicht von einem der Erkenner benutzt werden; Steuerung eines Testerkenners, um das Eingabemuster zumindest teilweise mit dem Testerkennungsmodell zu erkennen; und Aktivierung der Erkennung mit dem Testerkennungsmodell, wenn das Erkennungsresultat des Testerkenners besser als das Erkennungsresultat eines der Erkenner ausfällt.
  7. System nach Anspruch 1, wobei die Erkennungsmodelle hierarchisch angeordnet sind, von Modellen mit einem eher generischen Kontext hin zu Modellen mit einem eher spezifischen Kontext, und wobei der Modellselektor dazu dient, die Erkennung mit einem spezielleren Modell zu aktivieren, wenn die Erkennung mit dem allgemeineren Modell ohne hierarchische Beziehung auf einer höheren Hierarchieebene gute Erkennungsresultate im Vergleich zu Resultaten von mindestens einem Erkenner ergibt, der zu anderen Erkennungsmodellen gehört.
  8. System nach Anspruch 1, wobei das System eine Benutzerstation und eine Serverstation umfasst, die über ein Netzwerk wie dem Internet miteinander verbunden sind; wobei die Benutzerstation dazu dient, das Eingabemuster von einem Benutzer zu empfangen und ein das Eingabemuster repräsentierendes Signal an die Serverstation zu übertragen; wobei die Serverstation die Erkenner und den Controller umfasst.
DE60005326T 1999-03-26 2000-03-07 Erkennungseinheiten mit komplementären sprachmodellen Expired - Lifetime DE60005326T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP99200949 1999-03-26
EP99200949 1999-03-26
PCT/EP2000/001965 WO2000058945A1 (en) 1999-03-26 2000-03-07 Recognition engines with complementary language models

Publications (2)

Publication Number Publication Date
DE60005326D1 DE60005326D1 (de) 2003-10-23
DE60005326T2 true DE60005326T2 (de) 2004-07-22

Family

ID=8240033

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60005326T Expired - Lifetime DE60005326T2 (de) 1999-03-26 2000-03-07 Erkennungseinheiten mit komplementären sprachmodellen

Country Status (9)

Country Link
US (1) US6526380B1 (de)
EP (1) EP1171871B1 (de)
JP (1) JP4485694B2 (de)
KR (1) KR20010108413A (de)
CN (1) CN1156821C (de)
AT (1) ATE250270T1 (de)
AU (1) AU3164800A (de)
DE (1) DE60005326T2 (de)
WO (1) WO2000058945A1 (de)

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) * 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
US6885990B1 (en) * 1999-05-31 2005-04-26 Nippon Telegraph And Telephone Company Speech recognition based on interactive information retrieval scheme using dialogue control to reduce user stress
DE60023736T2 (de) * 1999-12-02 2006-08-10 Thomson Licensing Verfahren und vorrichtung zur spracherkennung mit verschiedenen sprachmodellen
GB0004097D0 (en) * 2000-02-22 2000-04-12 Ibm Management of speech technology modules in an interactive voice response system
DE60016722T2 (de) * 2000-06-07 2005-12-15 Sony International (Europe) Gmbh Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
US6671669B1 (en) 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
US7243069B2 (en) * 2000-07-28 2007-07-10 International Business Machines Corporation Speech recognition by automated context creation
DE10043531A1 (de) * 2000-09-05 2002-03-14 Philips Corp Intellectual Pty Sprachdialogsystem
US6754629B1 (en) * 2000-09-08 2004-06-22 Qualcomm Incorporated System and method for automatic voice recognition using mapping
JP2002116796A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
US6922670B2 (en) * 2000-10-24 2005-07-26 Sanyo Electric Co., Ltd. User support apparatus and system using agents
US20020087309A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented speech expectation-based probability method and system
US20020087311A1 (en) * 2000-12-29 2002-07-04 Leung Lee Victor Wai Computer-implemented dynamic language model generation method and system
US20020087313A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented intelligent speech model partitioning method and system
US20020087315A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented multi-scanning language method and system
US6754626B2 (en) * 2001-03-01 2004-06-22 International Business Machines Corporation Creating a hierarchical tree of language models for a dialog system based on prompt and dialog context
US20020169597A1 (en) * 2001-03-12 2002-11-14 Fain Systems, Inc. Method and apparatus providing computer understanding and instructions from natural language
US6785650B2 (en) * 2001-03-16 2004-08-31 International Business Machines Corporation Hierarchical transcription and display of input speech
US7072837B2 (en) * 2001-03-16 2006-07-04 International Business Machines Corporation Method for processing initially recognized speech in a speech recognition session
US6985859B2 (en) * 2001-03-28 2006-01-10 Matsushita Electric Industrial Co., Ltd. Robust word-spotting system using an intelligibility criterion for reliable keyword detection under adverse and unknown noisy environments
US7610547B2 (en) * 2001-05-04 2009-10-27 Microsoft Corporation Markup language extensions for web enabled recognition
US7506022B2 (en) * 2001-05-04 2009-03-17 Microsoft.Corporation Web enabled recognition architecture
US7409349B2 (en) * 2001-05-04 2008-08-05 Microsoft Corporation Servers for web enabled speech recognition
US6901364B2 (en) 2001-09-13 2005-05-31 Matsushita Electric Industrial Co., Ltd. Focused language models for improved speech input of structured documents
US7308404B2 (en) * 2001-09-28 2007-12-11 Sri International Method and apparatus for speech recognition using a dynamic vocabulary
US6996519B2 (en) * 2001-09-28 2006-02-07 Sri International Method and apparatus for performing relational speech recognition
US7533020B2 (en) * 2001-09-28 2009-05-12 Nuance Communications, Inc. Method and apparatus for performing relational speech recognition
US6950795B1 (en) 2001-10-11 2005-09-27 Palm, Inc. Method and system for a recognition system having a verification recognition system
US7711570B2 (en) 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
US8229753B2 (en) * 2001-10-21 2012-07-24 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting
US7133829B2 (en) * 2001-10-31 2006-11-07 Dictaphone Corporation Dynamic insertion of a speech recognition engine within a distributed speech recognition system
US7146321B2 (en) * 2001-10-31 2006-12-05 Dictaphone Corporation Distributed speech recognition system
US7203644B2 (en) * 2001-12-31 2007-04-10 Intel Corporation Automating tuning of speech recognition systems
GB2391679B (en) 2002-02-04 2004-03-24 Zentian Ltd Speech recognition circuit using parallel processors
US6879954B2 (en) * 2002-04-22 2005-04-12 Matsushita Electric Industrial Co., Ltd. Pattern matching for large vocabulary speech recognition systems
US7236931B2 (en) * 2002-05-01 2007-06-26 Usb Ag, Stamford Branch Systems and methods for automatic acoustic speaker adaptation in computer-assisted transcription systems
US7292975B2 (en) * 2002-05-01 2007-11-06 Nuance Communications, Inc. Systems and methods for evaluating speaker suitability for automatic speech recognition aided transcription
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
DE10220522B4 (de) * 2002-05-08 2005-11-17 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
DE10220521B4 (de) * 2002-05-08 2005-11-24 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
DE10220520A1 (de) * 2002-05-08 2003-11-20 Sap Ag Verfahren zur Erkennung von Sprachinformation
EP1505573B1 (de) 2002-05-10 2008-09-03 Asahi Kasei Kabushiki Kaisha Spracherkennungseinrichtung
US6618702B1 (en) * 2002-06-14 2003-09-09 Mary Antoinette Kohler Method of and device for phone-based speaker recognition
TWI225640B (en) * 2002-06-28 2004-12-21 Samsung Electronics Co Ltd Voice recognition device, observation probability calculating device, complex fast fourier transform calculation device and method, cache device, and method of controlling the cache device
KR100996212B1 (ko) * 2002-09-06 2010-11-24 보이스 시그널 테크놀로지스, 인코포레이티드. 음성인식을 위한 방법, 시스템 및 프로그램
US7228275B1 (en) * 2002-10-21 2007-06-05 Toyota Infotechnology Center Co., Ltd. Speech recognition system having multiple speech recognizers
FR2850783A1 (fr) * 2003-01-30 2004-08-06 France Telecom Dispositif pour indexer un signal audio continu de duree indeterminee
WO2004079720A1 (en) * 2003-03-01 2004-09-16 Robert E Coifman Method and apparatus for improving the transcription accuracy of speech recognition software
US7260535B2 (en) * 2003-04-28 2007-08-21 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting for call controls
US20040230637A1 (en) * 2003-04-29 2004-11-18 Microsoft Corporation Application controls for speech enabled recognition
EP2506252B1 (de) * 2003-11-21 2019-06-05 Nuance Communications, Inc. Themenspezifische Modelle für die Textformatierung und Spracherkennung
US7437294B1 (en) 2003-11-21 2008-10-14 Sprint Spectrum L.P. Methods for selecting acoustic model for use in a voice command platform
US7552055B2 (en) 2004-01-10 2009-06-23 Microsoft Corporation Dialog component re-use in recognition systems
US8160883B2 (en) * 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
US20130304453A9 (en) * 2004-08-20 2013-11-14 Juergen Fritsch Automated Extraction of Semantic Content and Generation of a Structured Document from Speech
US7584103B2 (en) * 2004-08-20 2009-09-01 Multimodal Technologies, Inc. Automated extraction of semantic content and generation of a structured document from speech
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7827032B2 (en) 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7865362B2 (en) 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US8200495B2 (en) * 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7895039B2 (en) 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US8260617B2 (en) * 2005-04-18 2012-09-04 Nuance Communications, Inc. Automating input when testing voice-enabled applications
US8032372B1 (en) 2005-09-13 2011-10-04 Escription, Inc. Dictation selection
US20070078806A1 (en) * 2005-10-05 2007-04-05 Hinickle Judith A Method and apparatus for evaluating the accuracy of transcribed documents and other documents
US7590536B2 (en) * 2005-10-07 2009-09-15 Nuance Communications, Inc. Voice language model adjustment based on user affinity
US7899669B2 (en) * 2005-12-12 2011-03-01 Gregory John Gadbois Multi-voice speech recognition
US7835911B2 (en) * 2005-12-30 2010-11-16 Nuance Communications, Inc. Method and system for automatically building natural language understanding models
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7831423B2 (en) * 2006-05-25 2010-11-09 Multimodal Technologies, Inc. Replacing text representing a concept with an alternate written form of the concept
WO2007150005A2 (en) * 2006-06-22 2007-12-27 Multimodal Technologies, Inc. Automatic decision support
DE102006029755A1 (de) 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
US7881928B2 (en) * 2006-09-01 2011-02-01 International Business Machines Corporation Enhanced linguistic transformation
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
US8542802B2 (en) 2007-02-15 2013-09-24 Global Tel*Link Corporation System and method for three-way call detection
US20080201158A1 (en) 2007-02-15 2008-08-21 Johnson Mark D System and method for visitation management in a controlled-access environment
US8412522B2 (en) 2007-12-21 2013-04-02 Nvoq Incorporated Apparatus and method for queuing jobs in a distributed dictation /transcription system
WO2009082684A1 (en) 2007-12-21 2009-07-02 Sandcherry, Inc. Distributed dictation/transcription system
TW200933391A (en) * 2008-01-24 2009-08-01 Delta Electronics Inc Network information search method applying speech recognition and sysrem thereof
US8175882B2 (en) * 2008-01-25 2012-05-08 International Business Machines Corporation Method and system for accent correction
GB2457897A (en) * 2008-02-27 2009-09-02 N S C Natural Speech Comm Ltd Audio File Management, Search and Indexing Method and System
US8364481B2 (en) * 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
WO2010051542A2 (en) * 2008-10-31 2010-05-06 Melodis Corporation Melodis crystal decoder method and device
US9225838B2 (en) 2009-02-12 2015-12-29 Value-Added Communications, Inc. System and method for detecting three-way call circumvention attempts
US8630726B2 (en) * 2009-02-12 2014-01-14 Value-Added Communications, Inc. System and method for detecting three-way call circumvention attempts
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8417526B2 (en) * 2009-03-13 2013-04-09 Adacel, Inc. Speech recognition learning system and method
JP2010224194A (ja) * 2009-03-23 2010-10-07 Sony Corp 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム
US8930179B2 (en) * 2009-06-04 2015-01-06 Microsoft Corporation Recognition using re-recognition and statistical classification
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
US9026444B2 (en) 2009-09-16 2015-05-05 At&T Intellectual Property I, L.P. System and method for personalization of acoustic models for automatic speech recognition
US20110131040A1 (en) * 2009-12-01 2011-06-02 Honda Motor Co., Ltd Multi-mode speech recognition
US9037463B2 (en) 2010-05-27 2015-05-19 Nuance Communications, Inc. Efficient exploitation of model complementariness by low confidence re-scoring in automatic speech recognition
US9332319B2 (en) * 2010-09-27 2016-05-03 Unisys Corporation Amalgamating multimedia transcripts for closed captioning from a plurality of text to speech conversions
US8812321B2 (en) * 2010-09-30 2014-08-19 At&T Intellectual Property I, L.P. System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning
US8959102B2 (en) 2010-10-08 2015-02-17 Mmodal Ip Llc Structured searching of dynamic structured document corpuses
WO2012104708A1 (en) * 2011-01-31 2012-08-09 Walter Rosenbaum Method and system for information recognition
WO2012116110A1 (en) 2011-02-22 2012-08-30 Speak With Me, Inc. Hybridized client-server speech recognition
US9679561B2 (en) * 2011-03-28 2017-06-13 Nuance Communications, Inc. System and method for rapid customization of speech recognition models
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9536517B2 (en) 2011-11-18 2017-01-03 At&T Intellectual Property I, L.P. System and method for crowd-sourced data labeling
US9570076B2 (en) * 2012-10-30 2017-02-14 Google Technology Holdings LLC Method and system for voice recognition employing multiple voice-recognition techniques
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
US9196250B2 (en) * 2012-11-16 2015-11-24 2236008 Ontario Inc. Application services interface to ASR
CN103076893B (zh) * 2012-12-31 2016-08-17 百度在线网络技术(北京)有限公司 一种用于实现语音输入的方法与设备
US9542947B2 (en) * 2013-03-12 2017-01-10 Google Technology Holdings LLC Method and apparatus including parallell processes for voice recognition
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9058805B2 (en) * 2013-05-13 2015-06-16 Google Inc. Multiple recognizer speech recognition
US9305554B2 (en) * 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
EP3067884B1 (de) * 2015-03-13 2019-05-08 Samsung Electronics Co., Ltd. Spracherkennungssystem und spracherkennungsverfahren dafür
KR102413067B1 (ko) * 2015-07-28 2022-06-24 삼성전자주식회사 문법 모델을 갱신하고, 문법 모델에 기초하여 음성 인식을 수행하는 방법 및 디바이스
CN105679314B (zh) * 2015-12-28 2020-05-22 百度在线网络技术(北京)有限公司 语音识别方法和装置
US10572961B2 (en) 2016-03-15 2020-02-25 Global Tel*Link Corporation Detection and prevention of inmate to inmate message relay
US9609121B1 (en) 2016-04-07 2017-03-28 Global Tel*Link Corporation System and method for third party monitoring of voice and video calls
US20180025731A1 (en) * 2016-07-21 2018-01-25 Andrew Lovitt Cascading Specialized Recognition Engines Based on a Recognition Policy
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US9959861B2 (en) * 2016-09-30 2018-05-01 Robert Bosch Gmbh System and method for speech recognition
CN106601257B (zh) 2016-12-31 2020-05-26 联想(北京)有限公司 一种声音识别方法、设备和第一电子设备
US10748531B2 (en) * 2017-04-13 2020-08-18 Harman International Industries, Incorporated Management layer for multiple intelligent personal assistant services
US10027797B1 (en) 2017-05-10 2018-07-17 Global Tel*Link Corporation Alarm control for inmate call monitoring
US10225396B2 (en) 2017-05-18 2019-03-05 Global Tel*Link Corporation Third party monitoring of a activity within a monitoring platform
US10860786B2 (en) 2017-06-01 2020-12-08 Global Tel*Link Corporation System and method for analyzing and investigating communication data from a controlled environment
US9930088B1 (en) 2017-06-22 2018-03-27 Global Tel*Link Corporation Utilizing VoIP codec negotiation during a controlled environment call
TWI682386B (zh) * 2018-05-09 2020-01-11 廣達電腦股份有限公司 整合式語音辨識系統及方法
EP3598377A1 (de) * 2018-07-20 2020-01-22 KBC Groep NV Verbesserte anspruchshandhabung
TWI698857B (zh) 2018-11-21 2020-07-11 財團法人工業技術研究院 語音辨識系統及其方法、與電腦程式產品
CN110415685A (zh) * 2019-08-20 2019-11-05 河海大学 一种语音识别方法
US10665241B1 (en) * 2019-09-06 2020-05-26 Verbit Software Ltd. Rapid frontend resolution of transcription-related inquiries by backend transcribers
US11532312B2 (en) 2020-12-15 2022-12-20 Microsoft Technology Licensing, Llc User-perceived latency while maintaining accuracy

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2818362B2 (ja) * 1992-09-21 1998-10-30 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声認識装置のコンテキスト切換えシステムおよび方法
US5754978A (en) * 1995-10-27 1998-05-19 Speech Systems Of Colorado, Inc. Speech recognition system
US6073101A (en) * 1996-02-02 2000-06-06 International Business Machines Corporation Text independent speaker recognition for transparent command ambiguity resolution and continuous access control
US5937383A (en) * 1996-02-02 1999-08-10 International Business Machines Corporation Apparatus and methods for speech recognition including individual or speaker class dependent decoding history caches for fast word acceptance or rejection
DE19635754A1 (de) 1996-09-03 1998-03-05 Siemens Ag Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung
US5819220A (en) 1996-09-30 1998-10-06 Hewlett-Packard Company Web triggered word set boosting for speech interfaces to the world wide web
US6088669A (en) * 1997-01-28 2000-07-11 International Business Machines, Corporation Speech recognition with attempted speaker recognition for speaker model prefetching or alternative speech modeling
US6078886A (en) 1997-04-14 2000-06-20 At&T Corporation System and method for providing remote automatic speech recognition services via a packet network

Also Published As

Publication number Publication date
DE60005326D1 (de) 2003-10-23
EP1171871A1 (de) 2002-01-16
WO2000058945A1 (en) 2000-10-05
ATE250270T1 (de) 2003-10-15
CN1351744A (zh) 2002-05-29
JP2002540478A (ja) 2002-11-26
EP1171871B1 (de) 2003-09-17
US6526380B1 (en) 2003-02-25
AU3164800A (en) 2000-10-16
JP4485694B2 (ja) 2010-06-23
CN1156821C (zh) 2004-07-07
KR20010108413A (ko) 2001-12-07

Similar Documents

Publication Publication Date Title
DE60005326T2 (de) Erkennungseinheiten mit komplementären sprachmodellen
DE69822296T2 (de) Mustererkennungsregistrierung in einem verteilten system
DE60015531T2 (de) Client-server spracherkennungssystem
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE69923191T2 (de) Interaktive anwenderschnittstelle mit spracherkennung und natursprachenverarbeitungssystem
DE60222093T2 (de) Verfahren, modul, vorrichtung und server zur spracherkennung
DE60213595T2 (de) Hintergrundlernen von sprecherstimmen
DE69923379T2 (de) Nicht-interaktive Registrierung zur Spracherkennung
EP0925578B1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
DE69829235T2 (de) Registrierung für die Spracherkennung
DE69427083T2 (de) Spracherkennungssystem für mehrere sprachen
DE69827988T2 (de) Sprachmodelle für die Spracherkennung
DE69908254T2 (de) System zur Suchoptimierung und Verfahren zur kontinuierlichen Spracherkennung
DE69814589T2 (de) Spracherkennung unter verwendung mehrerer spracherkenner
DE60201262T2 (de) Hierarchische sprachmodelle
DE69834553T2 (de) Erweiterbares spracherkennungssystem mit einer audio-rückkopplung
EP1466317B1 (de) Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
DE69622565T2 (de) Verfahren und vorrichtung zur dynamischen anpassung eines spracherkennungssystems mit grossem wortschatz und zur verwendung von einschränkungen aus einer datenbank in einem spracherkennungssystem mit grossem wortschatz
DE69813180T2 (de) Kontextabhängige phonemnetzwerke zur kodierung von sprachinformation
DE69928181T2 (de) Verfahren und Vorrichtung zur Spracherkennung unter Verwendung einer Wissensbasis
DE20004416U1 (de) Spracherkennungsvorrichtung unter Verwendung mehrerer Merkmalsströme
DE60207217T2 (de) Verfahren zum ermöglichen der sprachinteraktion mit einer internet-seite
DE102006006069A1 (de) Verteiltes Sprachverarbeitungssystem und Verfahren zur Ausgabe eines Zwischensignals davon
DE60123153T2 (de) Sprachgesteuertes Browsersystem
EP1273003B1 (de) Verfahren und vorrichtung zum bestimmen prosodischer markierungen

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition