DE19723293A1 - Pattern recognition process - Google Patents
Pattern recognition processInfo
- Publication number
- DE19723293A1 DE19723293A1 DE19723293A DE19723293A DE19723293A1 DE 19723293 A1 DE19723293 A1 DE 19723293A1 DE 19723293 A DE19723293 A DE 19723293A DE 19723293 A DE19723293 A DE 19723293A DE 19723293 A1 DE19723293 A1 DE 19723293A1
- Authority
- DE
- Germany
- Prior art keywords
- decision
- classifier
- rejection
- level
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Character Discrimination (AREA)
Abstract
Description
Die Erfindung betrifft ein Mustererkennungsverfahren nach dem Oberbegriff des Patentanspruchs 1.The invention relates to a pattern recognition method according to the preamble of Claim 1.
Wesentliche Einsatzgebiete für Mustererkennungsverfahren sind derzeit primär Spracherkennung und Schrifterkennung. Für die Beurteilung der Qualität eines Mustererkennungsverfahrens ist nicht nur dessen Erkennungsrate, d. h. die Rate der korrekt erkannten Muster, maßgebend, sondern auch die miteinander verknüpften Größen der Fehlerrate und der Zurückweisungsrate. Je nach Einsatzfall kann die Gewichtung der Folgekosten von falsch erkannten Mustern und von Zurückweisungen unterschiedlich ausfallen.The main areas of application for pattern recognition processes are currently primary Speech recognition and font recognition. For assessing the quality of a Pattern recognition method is not only its recognition rate, i. H. The rate of correctly recognized pattern, authoritative, but also the linked Error rate and rejection rate sizes. Depending on the application, the Weighting the follow-up costs of incorrectly recognized patterns and rejections turn out differently.
Von besonderer Bedeutung wird die Frage der Falscherkennung und Zurückweisung in solchen Erkennungssystemen, bei denen das bei der Entscheidung zugrunde gelegte Wörterbuch (Lexikon) aus Aufwandsgründen bewußt unvollständig gehalten ist, d. h., nicht alle möglichen Muster enthält, sondern lediglich eine Auswahl von diesen aufgrund von Vorverarbeitungsschritten. In einer solchen Ausgangssituation kann es besondern leicht auftreten, daß der für das geprüfte Muster eigentlich zutreffende Lexikoneintrag in dem eingeschränkten Lexikonumfang nicht enthalten ist und die richtige Entscheidung daher nur auf Zurückweisung lauten kann. Häufig wird in solchen Fällen aber die Entscheiderstufe des Erkennungssystems die Daten des Pfrüfmusters einer der verfügbaren Objektklassen zuweisen und somit eine falsche Entscheidung treffen.Of particular importance is the question of incorrect recognition and rejection in such detection systems in which the basis on which the decision is based Dictionary (lexicon) is deliberately incomplete for reasons of effort, d. H., does not contain all possible patterns, but only a selection of them due to preprocessing steps. In such a starting situation it can occur particularly easily that the one that actually applies to the tested sample Lexicon entry is not included in the restricted lexicon scope and the correct decision can therefore only be rejection. Often in such However, the decision level of the recognition system uses the data of the test pattern assign one of the available object classes and therefore a wrong decision to meet.
Aufgabe der vorliegenden Erfindung ist es daher, die Zuverlässigkeit der Entscheidung eines Erkennungssystems weiter zu verbessern. Ein weiteres Ziel ist eine verbesserte Skalierbarkeit eines Erkennungssystems bezüglich der zulässigen Fehlerrate an unterschiedliche Anwendungserfordernisse. The object of the present invention is therefore the reliability of the decision of a detection system. Another goal is an improved one Scalability of a detection system with regard to the permissible error rate different application requirements.
Die Erfindung ist im Patentanspruch 1 beschrieben. Die Unteransprüche enthalten vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung.The invention is described in claim 1. The sub-claims included advantageous refinements and developments of the invention.
Die Erfindung geht aus von der Erkenntnis, daß ein Erkennungssystem keine Aussage treffen kann über die eigene Zuverlässigkeit. Erfindungsgemäß wird daher der eigentlichen Erkennung eine weitere Stufe nachgeschaltet, in welcher eine solche Zuverlässigkeitssaussage anhand von statistischen Daten aus dem Erkennungsverfahren getroffen werden kann. Über die Abbildung einer dabei erzeugten Größe, die beispielsweise als Zuverlässigkeitsfaktor bezeichnet sei, auf einen festen Wertebereich, beispielsweise zwischen 0 und 1, ist darüber hinaus in Verbindung mit der Setzung eines Schwellwerts innerhalb dieses Wertebereichs eine einfache Skalierbarkeit der Fehlerrate bzw. der Rückweisungsrate möglich. Das erfindungsgemäße Verfahren ist somit flexibel auf unterschiedliche Anwendungen einsetzbar.The invention is based on the knowledge that a recognition system is not a statement can meet about your own reliability. According to the invention actual detection a further stage downstream, in which such Reliability statement based on statistical data from the Recognition process can be taken. About the illustration one here generated size, which may be referred to as a reliability factor, for example a fixed range of values, for example between 0 and 1, is also in Connection with the setting of a threshold within this value range simple scalability of the error rate or rejection rate possible. The The method according to the invention is thus flexible for different applications applicable.
Durch die Ausführung der nachgeschalteten Stufe zur Bewertung der Zuverlässigkeit als Klassifikator ist ein einfaches und robustes Verfahren gegeben, durch welches die Aufstellung von Bewertungskriterien, die für jede Anwendung neu zu definieren wären, vermieden wird. Als Klassifikatoren stehen aus dem Stand der Technik bewährte Verfahren, insbesondere statistische Klassifikatoren zur Verfügung, von denen wiederum die Polynomklassifikatoren bevorzugt zum Einsatz kommen. Die Eingangsdaten für solche Klassifikatoren sind vorzugsweise statistische Größen, die während des Erkennungsverfahrens ohnehin erzeugt und für die Bewertung der Zuverlässigkeit der Erkennerentscheidung lediglich zusätzlich in dem Rückweisungsklassifitor verarbeitet und ggf. zwischengespeichert werden. Der Zusatzaufwand durch die nachgeschaltete Bewertungsstufe ist damit äußert gering.By executing the downstream level to assess reliability as a classifier, there is a simple and robust method by which the Establishment of evaluation criteria that would have to be redefined for each application is avoided. Proven classifiers from the state of the art Methods, particularly statistical classifiers, are available, of which again the polynomial classifiers are preferred. The Input data for such classifiers are preferably statistical variables that generated anyway during the recognition process and for the evaluation of the Reliability of the recognition decision only in addition Rejection classifier processed and cached if necessary. Of the Additional expenditure due to the downstream evaluation level is thus extremely low.
Die Abbildung eines die Glaubwürdigkeit beschreibenden Faktors auf einen bestimmten Wertebereich bietet darüber hinaus den Vorteil, eine einheitliche Bewertungsgröße auch beim Einsatz unterschiedlicher Erkennungsverfahren oder Kombinationen verschiedener Erkennungsverfahren innerhalb eines Erkennungssystems bereitzustellen. Beispielsweise liefern herkömmliche Erkennungsverfahren für isolierte Objekte als Ergebnis einen Entscheidungsvektor, der für mehrere oder alle Klassen eine Wahrscheinlichkeitsschätzung enthält. Demgegenüber ergibt sich bei den mittlerweile häufig eingesetzten HMM (Hiden- Markov-Modell) - Erkennern durch die Aufeinanderfolge einer Mehrzahl von Zuständen mit jeweils eigener Wahrscheinlichkeitsbewertung bei der schließlichen Klassenzuweisung ein so geringer Wahrscheinlichkeitswert, daß hierfür die logarithmische Darstellung gewählt wird. Die Wahrscheinlichkeitsaussagen der verschiedenen Erkennungsverfahren sind nicht mit einander vergleichbar. Die erfindungsgemäß nachgeschaltete Klassifikatorstufe gleicht solche Unterschiede durch Einstellung der Klassifikator - Koeffizienten in einer Trainingsphase aus. Da auch der Erkenner selbst trainiert werden muß und die Trainingsproben auch für die Einstellung des nachgeschalteten Klassifikators dienen können, ist der Zusatzaufwand für die Einstellung des Klassifikators vernachlässigbar.The mapping of a factor describing credibility to one certain value range also offers the advantage of a uniform Evaluation size also when using different recognition methods or Combinations of different recognition processes within one Provide detection system. For example, conventional ones Detection method for isolated objects as a result of a decision vector that contains a probability estimate for several or all classes. In contrast, the HMM (hiden Markov model) - recognizers by the sequence of a plurality of states with their own probability assessment at the eventual Class assignment such a low probability that the logarithmic representation is selected. The probability statements of the different recognition methods are not comparable with each other. The Classifier level downstream according to the invention compensates for such differences Setting the classifier coefficients in a training phase. Since that too Recognizers must be trained themselves and the training samples also for recruitment of the downstream classifier is the additional effort for Classifier setting negligible.
Die Erfindung ist nachfolgend unter Bezugnahme auf die Abbildung noch weiter veranschaulicht.The invention is still further below with reference to the figure illustrated.
In der Abbildung sei ohne Einschränkung der Allgemeinheit für den Erkenner von einem HMM-Erkenner ausgegangen. Dem Erkenner sind die Daten von zu beurteilenden Objekten zu geführt, wobei in einer Trainingsphase diese Objekte bekannt sind. Die Daten haben in diesem Stadium im Regelfall bereits von den physikalischen Meßwerten der Objekterfassung eine Vorverarbeitung durchlaufen. Bei der Handschriftenerkennung umfaßt diese neben der Erzeugung von Merkmalsvektoren vor allem den Ausgleich verschiedener Schreibstile. Die Vorverarbeitung umfaßt beispielsweise eine Analyse verbundener Komponenten und Normierungsschritte, wie z. B. Schreiblinienschätzung, Scherung zur Aufrichtung geneigter Schrift, u.s.w. und beruht bevorzugt auf einer Konturdarstellung des Schriftbildes. Danach kann vorteilhafterweise zu einer sogenannten Skelettdarstellung des Schreibbildes übergegangen werden, über welches ein schmales Meßfenster geschoben wird, um eine Folge von Merkmalsvektoren zu erzeugen. Eine solche Vorverarbeitung ist beispielsweise im Detail beschrieben in [CGM 93]. Andere Varianten der Vorverarbeitung sind denkbar und im Prinzip ohne Einfluß auf die erfindungsgemäße Vorgehensweise. In the figure, let the recognizer of an HMM recognizer. The recognizer is the data from assessing objects, with these objects in a training phase are known. At this stage, the data has usually already been undergo preprocessing of physical measured values of the object detection. At Handwriting recognition includes this in addition to the generation of Feature vectors especially the balancing of different writing styles. The Preprocessing includes, for example, an analysis of connected components and Standardization steps, such as B. Writing line estimation, shear for erection inclined writing, etc. and is preferably based on a contour representation of the Typeface. Thereafter, it can advantageously lead to a so-called skeletal representation of the writing image, over which a narrow measuring window is pushed to generate a sequence of feature vectors. Such Preprocessing is described in detail, for example, in [CGM 93]. Other Variants of preprocessing are conceivable and in principle have no influence on the Procedure according to the invention.
HMM-Erkenner arbeiten häufig nicht direkt mit den Merkmalsvektoren, sondern mit daraus abgeleiteten Symbol-Vektoren. Für den Übergang zwischen den unterschiedlichen Vektordarstellungen werden Vektor-Quantisierer eingesetzt, bei welchen eine Transformation eines Merkmalsvektors in einen Symbolvektor sowohl nach einer diskreten Zuordnung als auch nach einer teil-kontinuierlichen Zuordnung unter Berücksichtigung einer Verteilungsfunktion erfolgen kann. Die Dimension der Vektoren kann durch eine LDA (lineare Diskriminanz - Analyse) reduziert werden, bevor sie der Vektorquantisierung unterzogen werden. Diese Verfahrensschritte sind an sich bekannt und nicht Gegenstand der Erfindung. In [KCGM93] ist beispielsweise eine detailliertere Beschreibung des Trainings von HMM-Erkennern und der Vorgehensweise während des Erkennungsprozesses zu finden. Der Einsatz der vorliegenden Erfindung ist bei HMM-Erkennern zwar besonders vorteilhaft, jedoch nicht auf diese Erkennungsverfahren beschränkt.HMM recognizers often do not work directly with the feature vectors, but with symbol vectors derived therefrom. For the transition between the Different vector representations use vector quantizers which both transform a feature vector into a symbol vector after a discrete assignment as well as after a partially continuous assignment taking into account a distribution function. The dimension of Vectors can be reduced by an LDA (linear discriminant analysis) before they are subjected to vector quantization. These process steps are known per se and not the subject of the invention. For example, in [KCGM93] a more detailed description of the training of HMM detectors and the Finding how to proceed during the recognition process. The use of the The present invention is particularly advantageous for HMM detectors, but not limited to these detection methods.
Dem Erkenner steht ein Lexikon (Wörterbuch) zur Verfügung, welches zu den zu erkennenden Mustern (Zeichen, Zeichenfolgen, Wörtern) auf das jeweilige Erkennungsverfahren abgestimmte Repräsentationen enthält.A lexicon (dictionary) is available to the recognizer, which is related to the recognizing patterns (characters, strings, words) on the respective Recognition method contains coordinated representations.
Das gesamte Erkennungssystem kann mehrstufig aufgebaut sein, beispielsweise in der Art, daß zur Erkennung von Orten bei der Postverteilung in einer ersten Stufe die die Postleitzahlen repräsentierende Ziffernfolge ausgewertet wird, und auf der Grundlage der Ausgangsbewertung dieser ersten Stufe mit einer Liste von als zutreffend in Betracht zu ziehenden Postleitzahlen eine Einschränkung des Lexikons für die Interpretation der Buchstabenfolge des Ortsnamens vorgenommen ist. In einem solchen Fall enthält das Lexikon für den Erkenner der Ortsnamen nicht mehr alle Ortsnamen, so daß bei einem Fehler bei der Beurteilung der Postleitzahlen das Lexikon für die Ortsnamenerkennung unter Umständen den tatsächlich zutreffenden Ortsnamen gar nicht mehr enthält. Als einzig korrekte Entscheidung bei der Erkennung der Ortsnamen wäre dann die Zurückweisung gegeben. Der Erkenner weist jedoch unter Umständen die ihm eingegebenen Daten mit ausreichender Wahrscheinlichkeit einem der vorliegenden Lexikoneinträge zu und trifft dann eine falsche Entscheidung. The entire detection system can be constructed in several stages, for example in the Art that to identify locations in the mail distribution in a first stage Digit sequence representing postcodes is evaluated, and on the basis the initial assessment of this first stage with a list of as applicable in To consider postal codes a limitation of the dictionary for the Interpretation of the letter sequence of the place name is made. In one In such a case, the lexicon for the recognizer of the place names no longer contains all Place names, so that in the event of an error in the evaluation of the postcodes Lexicon for place name recognition may be the one that actually applies No longer contains place names. As the only correct decision in the detection the place name would then be rejected. However, the recognizer points possibly the data entered to him with sufficient probability one of the existing lexicon entries and then makes a wrong decision.
Beim Erkennungsprozeß berücksichtigt der Erkenner zu Beginn alle ihm vorgegebenen Lexikoneinträge als Objektklassen für die Zuweisung der eingegebenen Daten des Prüfobjekts zu einer Klasse. Die Verarbeitung der eingegebenen Daten erfolgt in Abhängigkeit von dem eingesetzten Erkennerverfahren unterschiedlich. Bei einem HMM-Erkenner werden mehrere parallele Pfade über aufeinanderfolgende Zustände parallel überprüft und mit Wahrscheinlichkeiten gewichtet. Zur Beschränkung des Verarbeitungsaufwands werden Pfade, bei denen die kumulierten Wahrscheinlichkeiten eine vorgebbare Schwelle unterschreiten, abgebrochen und nicht weiterverfolgt. Die am Ende der Erkennungsprozedur verbleibenden, nicht abgebrochenen Pfaden entsprechen verschiedenen Lexikoneinträgen und weisen im Regelfall unterschiedliche kumulierte Wahrscheinlichkeiten auf. Neben den Lexikoneinträgen, die real zu erkennenden Objekten entsprechen, wird häufig auch noch ein sogenannter Joker-Eintrag vorgegeben, der beispielsweise bei der Schriftenerkennung auf beliebige Zeichenfolgen anwendbar ist.At the beginning of the recognition process, the recognizer takes into account all of the given ones Lexicon entries as object classes for the assignment of the entered data of the Test object for a class. The data entered is processed in Depends on the recognition method used. At a HMM recognizers become multiple parallel paths across successive states checked in parallel and weighted with probabilities. To limit the Processing effort becomes paths in which the cumulative Probabilities fall below a predeterminable threshold, canceled and discontinued. The ones remaining at the end of the recognition procedure, not broken paths correspond to different lexicon entries and point in the Usually different accumulated probabilities. In addition to the Encyclopedia entries that correspond to real objects to be recognized are also often a so-called wildcard entry specified, for example in the Font recognition is applicable to any character string.
Die am Ende der Erkennungsprozesses verbleibenden, während des Erkennungsprozesses nicht verworfenen Lexikoneinträge als alternative Objektklassen werden nach ihren kumulierten Wahrscheinlichkeiten P1 bis PN mit n als Anzahl der verbleibenden Objektklassen geordnet und die Entscheiderstufe des Mustererkennungssystems gibt die der größten kumulierten Wahrscheinlichkeit P1 zugeordnete Objektklasse K1 als erkannte Objektklasse, beispielsweise also als erkannten Ortsnamen aus. Die Objektklassen K2 bis KN, die niedrigere kumulierte Wahrscheinlichkeiten P2 bis PN aufweisen, bleiben insoweit unberücksichtigt. In diesen Objektklassen kann auch die Joker-Klasse enthalten sein mit einer kumulierten Wahrscheinlichkeit PJ.The remaining at the end of the detection process during the Recognition process not rejected lexicon entries as alternative object classes are calculated according to their cumulative probabilities P1 to PN with n as the number of the remaining object classes and the decision level of the Pattern recognition system gives the greatest cumulative probability P1 assigned object class K1 as recognized object class, for example as recognized place names. The object classes K2 to KN, the lower accumulated In this respect, probabilities P2 to PN have not been taken into account. In These object classes can also contain the joker class with a cumulative one Probability PJ.
Die am Ende des Erkennungsprozesses vorliegenden statistischen Daten in Form der Wahrscheinlichkeiten P1 bis PN können aber auf vorteilhafte Weise für den der Entscheiderstufe nachgeschalteten Klassifikator verwandt werden. Insbesondere vorteilhaft ist die Verwendung alternativ oder in beliebiger Kombination der Größen P1 (Wahrscheinlichkeit der besten Objektklasse K1), Wahrscheinlichkeitsabstand P1 - PJ zwischen der besten und der zweitbesten Objektklasse, Wahrscheinlichkeitsabstand P1 - PJ der besten Objektklasse gegen die Joker-Klasse (deren Wahrscheinlichkeit bei nicht vollständig verfolgtem Pfad gleich 0 gesetzt werden kann), die Anzahl n der insgesamt am Schluß verbleibenden alternativen Klassen und/oder die Anzahl der Klassen im benützten Lexikon. Andere statistische Daten aus dem Erkennungsprozeß können ebenfalls mit in die weitere Bewertung durch den nachfolgenden Klassifikator mit einbezogen werden.The statistical data available at the end of the recognition process in the form of the Probabilities P1 to PN can be advantageous for the Decision-maker downstream classifier can be used. Especially the use of alternative or in any combination of sizes P1 is advantageous (Probability of the best object class K1), probability distance P1 - PJ between the best and the second best object class, probability distance P1 - PJ of the best object class against the joker class (its probability at not fully tracked path can be set to 0), the number n of total alternative classes remaining at the end and / or the number of Classes in the dictionary used. Other statistical data from the recognition process can also be included in the further evaluation using the following classifier be included.
In einer Trainingsphase, in welcher die korrekte Zuordnung eines Prüfmusters zu einer Objektklasse für eine Vielzahl von Prüfmustern vorgegeben und bekannt ist, wird der Rückweisungs-Klassifikator trainiert, d. h. seine Koeffizienten werden so eingestellt, daß der im Klassifikator gebildete Zuverlässigkeitsfaktor ZF ein möglichst gutes Abbild der Glaubwürdigkeit der Entscheidung der Entscheiderstufe der Erkennungssystems bildet. In einer einfachen und vorteilhaften Ausführung bildet der Klassifikator die ihm zugeführten statistischen Daten auf lediglich zwei Klassen, nämlich Akzeptanz oder Zurückweisung der Entscheidung der Entscheiderstufe ab. Die Grenze zwischen beiden Klassen wird vorteilhafterweise durch einen Schwellwert TH gebildet, mit welchem der Zuverlässigkeitsfaktor ZF verglichen wird. Bei Schwellwertüberschreitung (ZF < TH) wird die Entscheidung der Entscheiderstufe akzeptiert, andernfalls (ZF <= TH) wird die Entscheidung als nicht ausreichend glaubwürdig zurückgewiesen. Über den vorgebbaren Schwellwert TH kann auf besonders vorteilhafte und einfache Weise die resultierende Rate der falsch erkannten Prüfmuster eingestellt werden.In a training phase in which the correct assignment of a test sample to a Object class for a large number of test samples and is known, the Rejection classifier trained, d. H. its coefficients are set so that the reliability factor ZF formed in the classifier is as good a picture as possible the credibility of the decision of the decision level of the recognition system forms. In a simple and advantageous embodiment, the classifier forms it supplied statistical data on only two classes, namely acceptance or Rejection of the decision of the decision maker level. The border between Both classes are advantageously formed by a threshold TH, with which the reliability factor ZF is compared. If the threshold is exceeded (ZF <TH) the decision of the decision maker level is accepted, otherwise (ZF <= TH) the decision is rejected as insufficiently credible. over the predefinable threshold value TH can be particularly advantageous and simple the resulting rate of misidentified test samples can be set.
Besonders vorteilhaft für die Gestaltung des Rückweisungsklassifikators ist die Ausführung als Polynom-Klassifikator, wobei sich der Grad des Polynoms an der Anzahl der zugeführten Variablen in an sich bekannter Weise orientiert. Bei Anwendung anderer Klassifikator-Techniken kann eine Unterteilung der Ausgangsklassen Akzeptanz bzw. Zurückweisung in mehrere Unterklassen für den Berechnungsvorgang sinnvoll sein. Verschiedene Klassifikator-Techniken sind beispielsweise detailliert beschrieben in [Sch96].The is particularly advantageous for the design of the rejection classifier Execution as a polynomial classifier, the degree of the polynomial depending on the Number of variables supplied oriented in a manner known per se. At Applying other classifier techniques can subdivide the Starting classes Acceptance or rejection in several subclasses for the Calculation process may be useful. There are different classifier techniques for example described in detail in [Sch96].
Die Erfindung ist besonders vorteilhaft in Verbindung mit der Erkennung von Ortsnamen in Anschriftenfeldern bei der automatischen Postverteilung mit vorangehender Untersuchung der Postleitzahlen und daraus vorgenommener Einschränkung zulässiger Ortsnamen (Reduzierung des Lexikons), ohne jedoch auf einen solchen Anwendungsfall beschränkt zu sein.The invention is particularly advantageous in connection with the detection of Place names in address fields for automatic mail distribution with previous examination of the postcodes and from them Restriction of permissible place names (reduction of the lexicon), however without to be limited to such an application.
[CGM93]
T. Caesar, J.M. and E. Mandler: "Preprocessing and feature extraction for a
handwriting recognition system" in Proceedings of the Second International Conference
on Document Analysis and Recognition, pages 408-411, Tsukuba Science City, Japan,
October 20-22 1993 IEEE Computer Society Press
[KCGM93]
A, Kaltenmeier, T. Caesar, J. M. Gloger, and E. Mandler: "Sophisticated topology of
Hidden Markov Models for cursive script recognition" in Proceedings of the Second
International Conference on Document Analysis and Recognition, pages 139-142,
Tsukuba Science City, Japan, October 20-22 1993. IEEE Computer Society Press.
[Sch96]
Jürgen Schürmann: "Pattern Classification" John Wiley & Sons, Inc., New York, 1996[CGM93]
T. Caesar, JM and E. Mandler: "Preprocessing and feature extraction for a handwriting recognition system" in Proceedings of the Second International Conference on Document Analysis and Recognition, pages 408-411, Tsukuba Science City, Japan, October 20-22 1993 IEEE Computer Society Press
[KCGM93]
A, Kaltenmeier, T. Caesar, JM Gloger, and E. Mandler: "Sophisticated topology of Hidden Markov Models for cursive script recognition" in Proceedings of the Second International Conference on Document Analysis and Recognition, pages 139-142, Tsukuba Science City, Japan, October 20-22 1993. IEEE Computer Society Press.
[Sch96]
Jürgen Schürmann: "Pattern Classification" John Wiley & Sons, Inc., New York, 1996
Claims (11)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19723293A DE19723293A1 (en) | 1997-06-04 | 1997-06-04 | Pattern recognition process |
PCT/DE1998/001474 WO1998055960A1 (en) | 1997-06-04 | 1998-05-28 | Pattern recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19723293A DE19723293A1 (en) | 1997-06-04 | 1997-06-04 | Pattern recognition process |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19723293A1 true DE19723293A1 (en) | 1998-12-10 |
Family
ID=7831296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19723293A Withdrawn DE19723293A1 (en) | 1997-06-04 | 1997-06-04 | Pattern recognition process |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE19723293A1 (en) |
WO (1) | WO1998055960A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007034505A1 (en) * | 2007-07-24 | 2009-01-29 | Hella Kgaa Hueck & Co. | Method and device for traffic sign recognition |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3310554A1 (en) * | 1982-04-30 | 1983-11-03 | Nissan Motor Co., Ltd., Yokohama, Kanagawa | Method and device for automatically checking the correspondence of a spoken command with one of a plurality of stored reference commands |
EP0621556A2 (en) * | 1993-04-21 | 1994-10-26 | Eastman Kodak Company | A process for combining the results of several classifiers |
DE3236832C2 (en) * | 1981-10-05 | 1995-10-19 | Exxon Corp | Method and device for speech analysis |
DE4417557A1 (en) * | 1994-05-19 | 1995-11-23 | Daimler Benz Aerospace Ag | Method for recognizing speech signals and arrangement for carrying out the method |
DE4433366A1 (en) * | 1994-09-20 | 1996-03-21 | Sel Alcatel Ag | Method and device for determining a measure of the correspondence between two patterns and speech recognition device with it and program module therefor |
US5555317A (en) * | 1992-08-18 | 1996-09-10 | Eastman Kodak Company | Supervised training augmented polynomial method and apparatus for character recognition |
DE19639884A1 (en) * | 1995-09-27 | 1997-04-03 | Hitachi Ltd | System for identifying pattern |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5912986A (en) * | 1994-06-21 | 1999-06-15 | Eastman Kodak Company | Evidential confidence measure and rejection technique for use in a neural network based optical character recognition system |
-
1997
- 1997-06-04 DE DE19723293A patent/DE19723293A1/en not_active Withdrawn
-
1998
- 1998-05-28 WO PCT/DE1998/001474 patent/WO1998055960A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3236832C2 (en) * | 1981-10-05 | 1995-10-19 | Exxon Corp | Method and device for speech analysis |
DE3310554A1 (en) * | 1982-04-30 | 1983-11-03 | Nissan Motor Co., Ltd., Yokohama, Kanagawa | Method and device for automatically checking the correspondence of a spoken command with one of a plurality of stored reference commands |
US5555317A (en) * | 1992-08-18 | 1996-09-10 | Eastman Kodak Company | Supervised training augmented polynomial method and apparatus for character recognition |
EP0621556A2 (en) * | 1993-04-21 | 1994-10-26 | Eastman Kodak Company | A process for combining the results of several classifiers |
DE4417557A1 (en) * | 1994-05-19 | 1995-11-23 | Daimler Benz Aerospace Ag | Method for recognizing speech signals and arrangement for carrying out the method |
DE4433366A1 (en) * | 1994-09-20 | 1996-03-21 | Sel Alcatel Ag | Method and device for determining a measure of the correspondence between two patterns and speech recognition device with it and program module therefor |
DE19639884A1 (en) * | 1995-09-27 | 1997-04-03 | Hitachi Ltd | System for identifying pattern |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007034505A1 (en) * | 2007-07-24 | 2009-01-29 | Hella Kgaa Hueck & Co. | Method and device for traffic sign recognition |
US8643721B2 (en) | 2007-07-24 | 2014-02-04 | Hella Kgaa Hueck & Co. | Method and device for traffic sign recognition |
Also Published As
Publication number | Publication date |
---|---|
WO1998055960A1 (en) | 1998-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0604476B1 (en) | Process for recognizing patterns in time-varying measurement signals | |
DE69424196T2 (en) | Automatic character recognition using static and dynamic parameters | |
DE60208223T2 (en) | ARRANGEMENT AND METHOD FOR FACE DETECTION USING PARTS OF THE LEARNED MODEL | |
DE69231309T2 (en) | Method and system for handwriting recognition | |
DE69029188T2 (en) | Character recognition based on probability clustering | |
DE69814104T2 (en) | DISTRIBUTION OF TEXTS AND IDENTIFICATION OF TOPICS | |
DE60305568T2 (en) | Keyword recognition in a voice signal | |
DE69818231T2 (en) | METHOD FOR THE DISCRIMINATIVE TRAINING OF VOICE RECOGNITION MODELS | |
DE69027519T2 (en) | Handwriting recognition using measures that differentiate between two classes | |
DE68924134T2 (en) | Speech recognition system. | |
DE69607460T2 (en) | NEURONAL NETWORK | |
DE19842405A1 (en) | Speech recognition process with confidence measure | |
DE69813597T2 (en) | PATTERN RECOGNITION USING MULTIPLE REFERENCE MODELS | |
DE10018134A1 (en) | Method and apparatus for determining prosodic markers | |
DE69805280T2 (en) | DEVICE AND METHOD FOR DETECTING PATTERNS. | |
DE69529015T2 (en) | Speed and recognition improvement for OCR using normalized height / latitude position | |
DE68925107T2 (en) | Pattern recognition method and system | |
DE69026474T2 (en) | Speech recognition system | |
EP0813734B1 (en) | Method of recognising at least one defined pattern modelled using hidden markov models in a time-variable test signal on which at least one interference signal is superimposed | |
DE4407998C2 (en) | Method and device for recognizing a pattern on a document | |
DE3246631C2 (en) | Character recognition device | |
DE69606468T2 (en) | Detection and assessment device with various learning functions | |
DE19723293A1 (en) | Pattern recognition process | |
DE69715343T2 (en) | Distance calculation for use in a speech recognizer | |
DE69331035T2 (en) | Character recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8139 | Disposal/non-payment of the annual fee |