[go: up one dir, main page]

DE69422446T2 - Mustererkennung - Google Patents

Mustererkennung

Info

Publication number
DE69422446T2
DE69422446T2 DE69422446T DE69422446T DE69422446T2 DE 69422446 T2 DE69422446 T2 DE 69422446T2 DE 69422446 T DE69422446 T DE 69422446T DE 69422446 T DE69422446 T DE 69422446T DE 69422446 T2 DE69422446 T2 DE 69422446T2
Authority
DE
Germany
Prior art keywords
pattern
template
image
neural network
preprocessing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69422446T
Other languages
English (en)
Other versions
DE69422446D1 (de
Inventor
Hadar I. Avi-Itzhak
Harry T. Garland
Stanford Than A Diep
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69422446D1 publication Critical patent/DE69422446D1/de
Application granted granted Critical
Publication of DE69422446T2 publication Critical patent/DE69422446T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung bezieht sich im allgemeinen auf eine Bildverarbeitung und insbesondere auf die Erkennung von Mustern, wie optischen Zeichen, durch Anlegen erfasster Muster an ein neuronales Netzwerk, das zur Erkennung derartiger Muster als einer eines Satzes von Mustervorlagen entsprechend trainiert ist.
  • Eine Vielzahl von Verfahren wurde in der Vergangenheit zur Mustererkennung vorgeschlagen. Ein erheblicher Forschungs- und Entwicklungsaufwand geschah insbesondere auf dem Gebiet der optischen Zeichenerkennung (OCR). Als Beispiel seien S. N. Srihari, V. Govindaraju, J. J. Hull, R. K. Fenrich und S. Lam, "Pattern Recognition, Character Recognition and Optical Character Readers", Technical Report CEDAR-TR-91-1, Center for Document Analysis and Recognition, State University of New York at Buffalo, Buffalo, N. Y., Mai 1991, angeführt.
  • Bekannte OCR-Verfahren unterscheiden sich weitgehend in ihren Ansätzen. Einige frühe Versuche überlagerten Bitmaps erfasster Bilder über Vorlagen bekannter Zeichen. Derartige Verfahren waren äußerst empfindlich gegenüber Faktoren wie Schriftartunterschieden, Asymmetrie, Vergrößerung und Verkleinerung. Andere Ansätze konzentrierten sich auf die Extraktion bestimmter Merkmale aus erfassten Zeichen. Die Ergebnisse variieren in Abhängigkeit von der bestimmten Auswahl und Verarbeitung der Merkmale.
  • Das US-Patent Nr. 3,846,752 von Nakano et al. offenbart ein Zeichenerkennungsgerät, bei dem die Dichteverteilung eines Zeichens verwendet wird. Das Frequenzspektrum der Dichte verteilung wird mit dem der Dichteverteilungen verglichen, die bekannten Zeichen entsprechen, und das bekannte Zeichen mit dem Fourier-transformierten Spektrummuster, das dem des erfassten Zeichens am ähnlichsten ist, wird als erkanntes Zeichen ausgegeben.
  • Das US-Patent Nr. 4,817,176 von Marshall et al. offenbart ein weiteres Mustererkennungsverfahren unter Verwendung der Fourier-Transformation mit verschiedenen Korrekturen für Amplituden- und Phasendifferenzen.
  • Das US-Patent Nr. 3,930,231 von Henrichon, Jr., et al. offenbart die Verwendung eines vielfachen Zellengitters zur Erfassung einer Musterdichte und zur Merkmalserkennung. Ein Vektorsignal wird für ein erfasstes Zeichen beruhend auf dem Vorhandensein oder dem Fehlen jedes erkennbaren Merkmals erzeugt, und dieser Vektor wird mit bekannte Zeichen darstellenden Vektoren verglichen.
  • Das US-Patent Nr. 3,993,976 von Ginsburg offenbart eine Musteranalyse unter Verwendung einer Transformation zum Erhalten von Ortsfrequenzen. Die Ortsfrequenzen werden zur Extraktion von Musterinformationen zur Bestimmung der allgemeinen Form, Kanten-, Textur- und Tiefeninformationen des erfassten Musters gefiltert.
  • Das US-Patent Nr. 4,513,441 von Henshaw offenbart einen Vergleich von zwei Bildern durch Ausbilden einer zusammengesetzten Überlagerung der Bilder und der Untersuchung der darin vorhandenen Phasendifferenzen.
  • Auf anderen Gebieten offenbart das US-Patent Nr. 4,225,850 von Chang et al. die Verwendung von Fourier-Transformationsverfahren zur Erfassung von Bereichen eines Bildfeldes, das keine Handschriftbilder enthält. Das US-Patent Nr. 4,547,800 von Masaki offenbart die Erfassung von Positions abweichungen von Werkstücken durch die Durchführung paralleler Transformationen und Rotationen bei Werkstückbildern und durch Durchführen von Vergleichen mit Referenzbildinformationen. Das US-Patent Nr. 4,346,405 von Yoda et al. offenbart die Erfassung temporärer Änderungen bei Fernsehbildern durch Teilen eines Fernsehschirms in Blöcke und Verarbeiten von X-Y-Daten für darin enthaltene visuelle Informationen. Das US-Patent Nr. 4,241,329 von Bahler et al. offenbart eine Spracherkennung unter Verwendung spektraler Statistiken zur Erkennung eines Schlüsselworts in einem kontinuierlichen Audiosignal. Das US-Patent Nr. 3,760,356 von Srivastava offenbart ein Verfahren zur Bestimmung einer extremen Binärzahl in einem Satz von Binärzahlen.
  • Neuronale Netzwerke wurden auch bei der Aufgabe der OCR angewendet. Bei J. Loncelle, et al., Optical Character Recognition and Cooperating Neural Networks Techniques, ARTIFICIAL NEURAL NETWORKS, 2, I. Aleksander und J. Taylor, Ed., Elsevier Science Publishers, B. V., 1992, ist ein auf einem neuronalen Netzwerk beruhendes OCR-System beschrieben, das Fehlerwahrscheinlichkeiten in der Größenordnung von 10&supmin;² liefert. Bei A. Khotanzad und J. Lu, Classification of In variant Image Representations Using a Neural Network, 38 IEEE TRANSACTIONS ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING 6, Seiten 1028 bis 1038, Juni 1990, ist ein weiteres auf einem neuronalen Netzwerk basierendes OCR-System beschrieben, das eine perfekte Erkennungsgenauigkeit für Bilder mit großem Signalrauschabstand liefert, jedoch eine relativ geringe Genauigkeit für mit Rauschen behaftete Bilder.
  • Aus Himes, G. S. et R. M. Inigo "Centroid calculation using neural networks" J. of Electronic Imaging, Band 1, Nr. 73, Januar 1992, Seiten 73 bis 87 ist bekannt, ein Zielerkennungssystem bereitzustellen, in dem ein Eingangsbild segmentiert wird, ein Schwerpunkt berechnet wird und eine Bildverschiebung entsprechend der Schwerpunktsberechnung vor der Erkennung unter Verwendung eines neuronalen Netzwerks anzuwenden. Es können Graustufenbildelementwerte oder binäre Bildelementwerte verarbeitet werden.
  • Aus Khotanzad, A. et J. H. Lu "Distortion invariant character recognition by a multilayer peceptron and backpropagation learning", Int. Joint conf. on Neural Networks, 24. Juli 1988, San Diego, CA, ist bekannt, eine optische Zeichenerkennung eines Bildes auszugestalten, das einer Vorverarbeitung, Merkmalsextraktion und Klassifizierung unter Verwendung eines neuronalen Netzwerks unterzogen wird. Die Bildvorverarbeitung besteht aus einer Schwellenwertbildung zur Binarisierung des Bildes vor der Merkmalsextraktion und -erkennung.
  • Keine dieser Lehren liefert ein adäquat robustes Verfahren zur Erkennung optischer Zeichen oder anderer Muster, das einem aus einem bekannten Satz von Mustern in Situationen entspricht, in denen das Bild durch einen erheblichen Betrag an Rauschen verschlechtert ist.
  • Die vorliegende Erfindung sucht die vorstehend angeführten Probleme zu lösen.
  • Erfindungsgemäß ist ein Verfahren zur Erkennung eines Musters in einem Bild als einem Vorlagemuster eines Satzes aus vorbestimmten Vorlagemustern entsprechend ausgestaltet, mit den Schritten:
  • Eingeben von Bilddaten, die das zu erkennende Muster enthalten;
  • Erfassen des Musters durch Segmentieren der Daten zum Erhalten eines erfassten Musters,
  • Vorverarbeiten des erfassten Musters zur Erzeugung eines vorverarbeiteten erfassten Musters, Anlegen des vorverarbeiteten erfassten Musters als Eingangssignal an ein neuronales Netzwerk, das zur Erkennung der vorbestimmten Vorlagemuster trainiert ist, und Erkennen des vorverarbeiteten erfassten Musters durch den Betrieb des neuronalen Netzwerks zur Ausgabe eines Ausgangssignals, das eines der vorbestimmten Vorlagemuster darstellt, dem das erfasste Muster entspricht, dadurch gekennzeichnet, dass das erfasste Muster durch eine Abbildung aus Bildelementen dargestellt ist, die jeweils einen Multi-Bit-Bildelementwert aufweisen, und dass der Vorverarbeitungsschritt die Unterschritte umfasst:
  • (a) Bestimmen von Komplementen jedes Bildelementwerts,
  • (b) Auswählen des Minimums der Komplemente als Rauschwert,
  • (c) Subtrahieren des Rauschwertes von jedem Komplement und
  • (d) wahlweises Ersetzen der Komplemente durch einen Basiswert im Ansprechen darauf, dass die Komplemente einen vorbestimmten Schwellenwert nicht überschreiten.
  • Gemäß einem beschriebenen Ausführungsbeispiel wird ein erfasstes Muster aus einem Satz bekannter Vorlagemuster erkannt, indem zuerst ein neuronales Netzwerk mit den bekannten Vorlagemustern trainiert wird, das erfasste Muster vorverarbeitet wird und dann das vorverarbeitete erfasste Muster an das neuronale Netzwerk angelegt wird. Gemäß einem Ausführungsbeispiel beinhaltet das Trainieren des neuronalen Netzwerks eine Vorverarbeitung, bei der die Position jedes Vorlagemusters des Satzes der Vorlagemuster in einem Musterrahmen zufällig verschoben wird. Die Vorverarbeitung wird durch das Invertieren von Werten mehrwertiger Bildelemente, die das erfasste Muster umfassen, Bestimmen eines Rauschpegels und Subtrahieren des Rauschpegels von den Bildelementwerten und Zuordnen neuer Basiswerte zu Bildelementen mit Werten unterhalb eines bestimmten Schwellenwerts bewirkt.
  • Kurzbeschreibung der Zeichnungen
  • Fig. 1 zeigt ein schematisches Blockschaltbild der erfindungsgemäßen Vorrichtung zur Mustererkennung.
  • Fig. 2 zeigt ein schematisches Blockschaltbild einer Vorverarbeitungseinrichtung für die erfindungsgemäße Vorrichtung in Fig. 1.
  • Fig. 3 zeigt ein schematisches Blockschaltbild eines erfindungsgemäßen neuronalen Netzwerks.
  • Fig. 4 zeigt ein schematisches Blockschaltbild eines Neurons des erfindungsgemäßen neuronalen Netzwerks in Fig. 3.
  • Fig. 5 zeigt ein Ablaufdiagramm von Schritten, die beim erfindungsgemäßen Trainieren eines neuronalen Netzwerks verwendet werden.
  • Fig. 6 zeigt ein Ablaufdiagramm von erfindungsgemäßen Verarbeitungsschritten zur Mustererkennung.
  • Ausführliche Beschreibung der Ausführungsbeispiele
  • In Fig. 1 ist ein System 100 zur erfindungsgemäßen Mustererkennung gezeigt. Das System 100 umfasst vier Hauptfunktionsblöcke. Eine Abtasteinrichtung 102 wird zum Erhalten eines zweidimensionalen Bildelementwertarrays verwendet, das das abgetastete Bild darstellt, und das zu erkennende Muster aufweist. Eine Segmentiereinrichtung 104 erfasst das Muster, indem sie es von anderen Bildelementen trennt. Die Vorverarbeitungseinrichtung 106 führt eine Verarbeitung bei dem erfassten Muster zur Erleichterung der Mustererkennung durch. Ein neuronales Netzwerk 108 nimmt das erfasste, vorverarbeitete Muster als Eingangssignal entgegen und liefert als Ausgangssignal ein das erkannte Muster darstellendes Signal. Gemäß einem bevorzugten Ausführungsbeispiel werden eine herkömmliche Abtasteinrichtung 102 und eine herkömmliche Segmentiereinrichtung 104 zur Implementation der Erfindung verwendet. Gemäß einem bevorzugten Ausführungsbeispiel ist die Abtasteinrichtung 102 eine digitale Abtasteinrichtung "ScanJet IIc" von Hewlett Packard Co., und liefert eine Auflösung von 400 Punkten (Bildelementen) pro Inch, wobei jedes Bildelement mit einer Acht-Bit-Grauskalaauflösung quantisiert wird. Die Segmentiereinrichtung 104 wird üblicherweise mittels Software implementiert, die auf einem herkömmlichen universellen 33 MHz-IBM-kompatiblen Personalcomputer mit einem 80486 Mikroprozessor arbeitet. Die Vorverarbeitungseinrichtung 106 wird nachstehend ausführlicher unter Bezugnahme auf Fig. 2 beschrieben, und das neuronale Netzwerk 108 wird ausführlicher unter Bezugnahme der Fig. 3 und 4 beschrieben.
  • Gemäß Fig. 2 besteht die Vorverarbeitungseinrichtung 106 aus fünf Hauptfunktionsblöcken. Ein Invertierer 202 nimmt als Eingangssignal eine 50 Bildelemente breite · 60 Bildelemente hohe Darstellung des erfassten Musterbildes entgegen, das von der Segmentiereinrichtung 104 erhalten wird, und ersetzt jeden Bildelementwert mit einem Wert, der das Komplement des ursprünglichen Bildelementwerts darstellt. Die Wirkung dieses Vorgangs besteht in der Invertierung der weißen Abschnitte des Bildes in Schwarz, und der schwarzen Abschnitte des Bildes in Weiß. Bei einem bevorzugten Ausführungsbeispiel liefern die Abtasteinrichtung 102 und die Segmentiereinrichtung 104 als Ausgangssignal eher ein Grauskalenbild als ein Schwarz-Weiß-Bild, so dass der Invertierer 202 auch hellgraue Bildelemente in dunkelgraue, und dunkelgraue Bildelemente in hellgraue ändert. Bei einem bevorzugten Ausführungsbeispiel liefern die Abtasteinrichtung 102 und die Segmentiereinrichtung 104 eine Bildauflösung von 400 Punkten (Bildelementen) pro Inch über einen 3000- Quadratmeter-Bildelementrahmen (50 Bildelemente breit · 60 Bildelemente hoch).
  • Ein Rauschfilter 204 führt zwei Funktionen durch. Zum einen bestimmt das Rauschfilter 204 den minimalen Bildelementwert des erfassten und invertierten Musters und subtrahiert den Wert von jedem Bildelement des Musters. Somit wird der minimale Bildelementwert für jedes Muster Null. Zum zweiten vergleicht das Rauschfilter 204 jeden resultierenden Bildelementwert mit einem minimalen Schwellenwert und ersetzt alle Bildelementwerte unterhalb des Schwellenwerts durch einen Basiswert. Gemäß einem bevorzugten Ausführungsbeispiel ist der Schwellenwert auf 20% des maximalen Bildelementwerts in dem Muster eingestellt, und der Basiswert liegt bei Null. Es wurde herausgefunden, dass diese Bildelementwertersetzung die Empfindlichkeit des Systems 100 bezüglich Hintergrundrauschen verringert, ohne die Erkennungsgenauigkeit merklich zu verschlechtern.
  • Das Ausgangssignal des Rauschfilters 204 wird einer Schwerpunktpositioniereinrichtung 206 zugeführt. Die Schwerpunktpositioniereinrichtung 206 bestimmt zuerst den Schwerpunkt des rauschgefilterten Musters, wobei der Schwerpunkt ein Ort ist, der durch das gewichtete Mittel der Koordinaten der Bildelemente in dem Muster definiert ist, wobei die Gewichte den Bildelementwerten entsprechen. Ist der Schwerpunkt bestimmt, wird das gesamte Muster derart verschoben, dass der Schwerpunkt im Mittelpunkt des 50 · 60-Rahmens, wie vorstehend beschrieben, liegt.
  • Das Ausgangssignal der Schwerpunktpositioniereinrichtung 206 wird einer Dither-Verarbeitungseinrichtung 208 zugeführt. Die Dither-Verarbeitungseinrichtung 208 verschiebt die Position eines zugeführten Musters zufällig vor der Zufuhr des Musters zu einer Normalisiereinrichtung 210 und schließlich zu dem neuronalen Netzwerk 108, führt diese Funktion lediglich nur aus, wenn das neuronale Netzwerk 108 trainiert wird. Gemäß einem bevorzugten Ausführungsbeispiel ist die zufällige Verschiebung unabhängig in der horizontalen und vertikalen Richtung über den Bereich [-2, +2] Bildelemente in jeder Richtung vom Schwerpunkt aus. Der Zweck einer derartigen Ortsverschiebung besteht in der Sicherstellung einer Erkennung, die bezüglich Eingangsverschiebungen invariant ist. Die Dither-Verarbeitungseinrichtung 208 führt derartige Verschiebungen lediglich während des Trainierens des neuronalen Netzwerks 108 aus und führt während der Erkennung keine Funktion durch.
  • Das Ausgangssignal der Dither-Verarbeitungseinrichtung 208 wird der Normalisiereinrichtung 210 zugeführt, die einen Vektor der Dimension 3000 durch Verketten jeder der 60 Reihen der Bildelemente ausbildet, die das rauschreduzierte und positionierte Muster umfassen, und dann diesen Vektor auf Einheitslänge durch Multiplikation jedes Bildelementwerts mit einem Gesamtskalierungswert skaliert. Diese Normalisierung dient als automatische Helligkeitsanpassung zur Sicherstellung, dass die Erkennung bezüglich relativer Dunkelheit oder Helligkeit eines Musters unempfindlich ist.
  • Gemäß einem bevorzugten Ausführungsbeispiel wird das schwerpunktpositionierte und möglicherweise der Dither- Verarbeitung unterzogene Muster der Normalisierungseinrichtung 210 zugeführt, aber der Fachmann erkennt, dass das Muster nicht vor der Normalisierung positioniert werden muss. Bei einem alternativen Ausführungsbeispiel kann das Ausgangssignal des Rauschfilters 204 der Normalisierungseinrichtung 210 vor der Positionierung durch die Schwerpunktverarbeitungseinrichtung 206 und möglichen Dither- Verarbeitung durch die Dither-Verarbeitungseinrichtung 208 zugeführt werden.
  • Welche Topologie auch immer verwendet wird, das normalisierte, schwerpunktpositionierte Muster wird dann dem neuronalen Netzwerk 108 zur Erkennung zugeführt.
  • In Fig. 3 sind die Grundelemente eines neuronalen Netzwerks wie des Netzwerks 108 in Fig. 1 gezeigt. Gemäß einem bevorzugten Ausführungsbeispiel weist das neuronale Netzwerk 108 3000 Eingänge, einen für jedes Bildelement eines 50 · 60 Bildelementmusters auf, und ist in der vollständig verbundenen Vorwärtskopplungsarchitektur implementiert, das heißt, jeder neuronale Ausgang von einer Schicht wird jedem neuronalen Eingang der nächsten Schicht zugeführt, und Daten fließen lediglich von links nach rechts in Fig. 3. Aus Klarheitsgründen sind die Eingänge des neuronalen Netzwerks in Fig. 3 als einzelne Eingänge gezeigt. Das neuronale Netzwerk 108 weist zwei Niveaus von Neuronen, beispielsweise 261, und einen Ausgangskomparator 395 auf. Ein erstes Niveau von Neuronen, beispielsweise die Neurone 261 bis 280, besteht aus zwanzig Neuronen, von denen jedes mit allen 3000 Eingängen wie vorstehend beschrieben verbunden ist, und von denen jedes ein Ausgangssignal liefert. Ein zweites Niveau von Neuronen, beispielsweise die Neurone 301 bis 394, besteht aus 94 Neuronen, von denen jedes die Ausgangssignale aus den ersten Niveauneuronen, beispielsweise 261, als Eingangssignal entgegennimmt. Jedes Neuron des zweiten Niveaus, beispielsweise 301, erzeugt ein einzelnes Ausgangssignal. Der Ausgangskomparator 395 nimmt als Eingangssignal die durch die Neurone des zweiten Niveaus, beispielsweise 301, erzeugten Signale entgegen und erzeugt ein Signal, das anzeigt, welches Neuron des zweiten Niveaus, beispielsweise 301, das größte Ausgangssignal erzeugt hat. Unter Verwendung der in Fig. 3 dargestellten Architektur können 94 verschiedene Muster erkannt werden, eines für jedes Neuron des zweiten Niveaus, beispielsweise 301. Im allgemeinen muss die Anzahl der Schichten und die Anzahl der Neurone pro Schicht nicht in die {3000, 20, 94}-Architektur wie vorstehend beschrieben gezwungen werden. Allerdings liefern einige Architekturen bessere Ergebnisse als andere. Beispielsweise sollte die letzte Schicht bzw. die Ausgangsschicht so viele Neurone wie die gewünschte Anzahl erkennbarer Muster haben. Des weiteren sind die anderen Schichten in gewisser Weise durch die Anzahl an Freiheitsgraden festgelegt, die zur eindeutigen Erkennung der Muster beruhend auf der Anzahl an verfügbaren Eingangssignalen erforderlich sind. Es wurde herausgefunden, dass die {3000, 20, 94}- Architektur wie vorstehend beschrieben äußerst gute Ergebnisse in der Praxis erzielt.
  • Gemäß einem bevorzugten Ausführungsbeispiel ist das neuronale Netzwerk 108 auf herkömmliche bekannte Art und Weise durch Programmieren eines universellen Personalcomputers implementiert.
  • In Fig. 4 ist ein Neuron, beispielsweise 301 in Fig. 3, ausführlicher gezeigt. Das Neuron 301 nimmt als Eingangssignal ein logisches "1"-Signal an einem Vorverschiebungsgewichtungselement 400 entgegen, und nimmt auch als Eingangssignale die Ausgangssignale von den Neuronen 261 bis 280 jeweils an entsprechenden Gewichtungselementen 401 bis 420 entgegen. Jedes Element 400 bis 420 multipliziert das zugeführte Signal jeweils mit skalaren Größen w1-w20. Der Satz skalarer Größen w1-w20 kann als das Ausbilden eines 20-dimensionalen Vektors W angesehen werden. Die tatsächlichen Werte der skalaren Größen w1 bis w20 werden im Verlaufe des Trainings des neuronalen Netzwerks wie nachstehend beschrieben angepasst. Die Ausgangsignale der Elemente 400 bis 420 werden durch einen Addierer 450 summiert und dann einer Sigmoidfuriktion 451 zugeführt. Gemäß einem bevorzugten Ausführungsbeispiel lautet die durch die Sigmoidfunktion 451 verwendete bestimmte Sigmoidgleichung wie folgt:
  • Sgm(s) = 1/(1 + e-(s)) (Gleichung 1)
  • wobei s ein beliebiges, der Sigmoidfunktion 451 zugeführtes Signal ist. Sind die Eingangssignale von den Neuronen 261 bis 280 als Vektor X bezeichnet und sind die skalaren Größen w1-w20 als Vektor W bezeichnet, ist somit die Gesamtübertragungsfunktion für das Neuron 301 durch folgende Gleichung gegeben:
  • f(X,W) = 1/(1 + e-(XTW+ω0)) (Gleichung 2)
  • wobei XTW das Skalarprodukt der Vektoren X und W ist.
  • In Fig. 5 ist ein Ablaufdiagramm der beim Trainieren eines neuronalen Netzwerks, beispielsweise 108, enthaltenen Schritte gemäß der Erfindung gezeigt. Das Training 501 beginnt durch Abtastung 502 eines ein Vorlagemuster enthaltenden Bildes, für das eine Erkennung gewünscht wird, beispielsweise den Buchstaben "E". Wie vorstehend in Verbindung mit der Vorverarbeitungseinrichtung 106 beschrieben, wird das Vorlagebild invertiert 503, indem das Komplement der Bildelementwerte für das Bild genommen wird, ein "Rausch"-Bildelementwert bestimmt 504 und dann von jedem Bildelementwert subtrahiert 505, und solche Bildelementwerte unterhalb eines gegebenen Schwellenwerts werden durch einen Basisbildelementwert ersetzt 506.
  • Dann wird ein 50 · 60-Bildelementrahmen um das Vorlagemuster definiert 507. Typischerweise ist die Definition eines derartigen Rahmens im Betrieb der Segmentiereinrichtung 104 enthalten, und der derart definierte Rahmen kann direkt in Schritt 507 verwendet werden. Dann wird der Schwerpunkt des Vorlagemusters bestimmt 508 und das gesamte Vorlagemuster neu positioniert 509, so dass der Schwerpunkt in dem Rahmen zentriert ist. Das Vorlagemuster wird dann durch eine Zufallszahl von Bildelementen in der vertikalen und horizontalen Dimension verschoben 510, zur Entsprechung einer Einheitslänge wie vorstehend beschrieben normalisiert 511, und das resultierende Muster wird dem neuronalen Netzwerk zugeführt 512. Der tatsächliche Betrieb des neuronalen Netzwerks beim Training ist herkömmlicherweise eine Rückwärtsausbreitung, wie bei vielen verschiedenen Verweisen auf diesem Gebiet beschrieben ist, wie bei A. Dengel, A. Luhn und B. Verberreiter, "Model Based Segmentation and Hypothesis Generation for Recognition of Printed Documents", Proceedings of the SPIE, Band 860, Seiten 89-94, 1988. Als Ergebnis des Trainings werden die skalaren Größen w1-w20 wie vorstehend in Verbindung mit Fig. 4 beschrieben bestimmt. Gemäß einem bevorzugten Ausführungsbeispiel wird eine Zwölf-Punkte-Courier-Schriftart zur Bereitstellung der Vorlagemuster und näherungsweise 430.000 Trainingsiterationen zum Erreichen einer Fehlerwahrscheinlichkeit in der Größenordnung von 10&supmin;&sup6; verwendet.
  • In Fig. 6 ist ein Ablaufdiagramm der Arbeitsweise des Systems 100 gemäß der Erfindung gezeigt. Nach dem in Verbindung mit Fig. 5 beschriebenen Training beginnt der Betrieb durch die Abtastung 601 eines Bildes, für das eine Mustererkennung gewünscht wird. Das Bild wird dann zum Erhalten der einzelnen Muster segmentiert 602, die das Bild enthalten. Dann wird überprüft 603, ob die Verarbeitung für alle derartigen Muster abgeschlossen ist. Wenn ja, ist die Verarbeitung abgeschlossen. Andererseits wird wie vorstehend beschrieben das Muster invertiert 604, indem das Komplement der Bildelementwerte genommen wird, ein Rauschbildelementwert bestimmt 605 und von jedem Bildelementwert subtrahiert 606, solche Bildelementwerte unterhalb eines Schwellenwerts durch einen Basiswert ersetzt 607, ein Rahmen um das Muster definiert 608, der Schwerpunkt des Musters bestimmt 609, und das Muster derart positioniert 610, dass sich der Schwerpunkt im Mittelpunkt des Rahmens befindet. Sind diese Schritte abgeschlossen, wird das Muster dem neuronalen Netzwerk zur Erkennung zugeführt 611, und die Verarbeitung kehrt zu Schritt 603 zurück.
  • Obwohl die vorstehende Beschreibung sich auf eine optische Erkennung gedruckter Zeichen beschränkt hat, kann die Erfindung auch bei anderen Mustererkennungsarten genauso gut angewendet werden. Beispielsweise kann ein Klangbild anstelle eines optischen Bildes effektiv für eine neuronale Netzwerkerkennung durch Subtraktion eines Rauschpegels von jeder Dimension einer Zeit- oder frequenzbasierten Vektordarstellung des Klangbildes, durch Normalisieren einer derartigen Vektordarstellung oder durch Ersetzen von Komponenten unterhalb eines Schwellenwerts durch einen Basiswert vorverarbeitet werden. Somit kann die Erfindung auf vielen von der optischen Zeichenerkennung verschiedenen Gebieten Anwendung finden.
  • Daher wird eine Mustererkennung durch Trainieren eines neuronalen Netzwerks mit Vorlagemustern, Erfassen und Verarbeiten eines Musters, für das eine Erkennung gewünscht wird, und durch Zuführen des erfassten, vorverarbeiteten Musters zu dem trainierten neuronalen Netzwerk erreicht.
  • Die vorstehende Beschreibung dient der Darstellung bestimmter Ausführungsbeispiele und soll nicht den Schutzbereich der Erfindung einschränken.

Claims (14)

1. Verfahren zur Erkennung eines Musters in einem Bild als einem Vorlagenmuster eines Satzes aus vorbestimmten Vorlagenmustern entsprechend, mit den Schritten
Eingeben (601) von Bilddaten, die das zu erkennende Muster enthalten,
Erfassen (602) des Musters durch Segmentieren der Daten zum Erhalten eines erfassten Musters,
Vorverarbeiten (604-610) des erfassten Musters zur Erzeugung eines vorverarbeiteten erfassten Musters,
Anlegen (611) des vorverarbeiteten erfassten Musters als Eingangssignal an ein neuronales Netzwerk (108), das zur Erkennung der vorbestimmten Vorlagenmuster trainiert ist, und
Erkennen des vorverarbeiteten erfassten Musters durch den Betrieb des neuronalen Netzwerks zur Ausgabe eines Ausgangssignals, das eines der vorbestimmten Vorlagenmuster darstellt, dem das erfasste Muster entspricht,
dadurch gekennzeichnet, dass
das erfasste Muster durch eine Abbildung aus Bildelementen dargestellt ist, die jeweils einen Multi-Bit- Bildelementwert aufweisen, und dass der Vorverarbeitungsschritt die Unterschritte umfasst:
(a) Bestimmen (604) von Komplementen jedes Bildelementwerts,
(b) Auswählen (605) des Minimums der Komplemente als Rauschwert,
(c) Subtrahieren (606) des Rauschwertes von jedem Komplement und
(d) wahlweises Ersetzen (607) der Komplemente durch ei nen Basiswert im Ansprechen darauf, dass die Komplemente einen vorbestimmten Schwellenwert nicht überschreiten.
2. Verfahren nach Anspruch 1, wobei der Vorverarbeitungsschritt den weiteren Schritt umfasst Filtern von Bildelementwerten durch wahlweises Zuordnen eines vorbestimmten gefilterten Bildelementwerts zu einem Untersatz der Bildelemente im Ansprechen, darauf, dass die Werte der Bildelemente in dem Untersatz einen Schwellenwert nicht überschreiten.
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Segmentierschritt den Schritt Definieren (608) eines Rahmens um das erfasste Muster aufweist, und wobei der Vorverarbeitungsschritt die weiteren Schritte aufweist
(a) Bestimmen (609) eines Schwerpunkts des erfassten Musters und
(b) Positionieren (610) des erfassten Musters in dem Rahmen derart, dass der Schwerpunkt bezüglich des Rahmens im Mittelpunkt angeordnet ist.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Eingabeschritt das Abtasten eines Bildes unter Verwendung einer optischen Abtasteinrichtung (102) umfasst.
5. Verfahren nach einem der vorhergehenden Ansprüche, mit einem Schritt zum Trainieren des neuronalen Netzwerks, wobei der Trainierschritt die Unterschritte umfasst Eingeben (502) von Bilddaten, die eine Vielzahl von Vorlagenbildern umfassen, die die vorbestimmten Vorlagenmuster darstellen, und für jedes Vorlagenbild, das einem entsprechenden Vorlagenmuster entspricht,
(a) Definieren (507) eines Rahmens um das Vorlagenbild,
(b) Bestimmen (508) eines Schwerpunkts des Vorlagenbildes,
(c) Positionieren (509) des einen Vorlagenbildes in dem Rahmen derart, dass der Schwerpunkt bezüglich des Rahmens im Mittelpunkt angeordnet ist,
(d) zufälliges Verschieben (510) nach dem Unterschritt
(c) des einen Vorlagenbildes in dem Rahmen und
(e) Anlegen (512) des zufällig verschobenen Vorlagenbildes an das neuronale Netzwerk.
6. Vorrichtung (100) zur Erkennung eines Musters in einem Bild als einem Vorlagenmuster eines Satzes aus vorbestimmten Vorlagenmustern entsprechend, mit
einer Eingabeeinrichtung (102) zur Eingabe von Bilddaten, die das zu erkennende Muster enthalten,
einer Erfassungseinrichtung (104) zur Erfassung des Musters durch Segmentieren der Daten zum Erhalten eines erfassten Musters,
einer Vorverarbeitungseinrichtung (106) zur Vorverarbeitung des erfassten Musters zur Erzeugung eines vorverarbeiteten erfassten Musters und
einem neuronalen Netzwerk (108), das zur Erkennung der vorbestimmten Vorlagenmuster trainiert ist, und zur Erkennung des vorverarbeiteten erfassten Musters durch Ausgeben eines Ausgangssignals eingerichtet ist, das eines der vorbestimmten Vorlagenmuster darstellt, dem das erfasste Muster entspricht,
dadurch gekennzeichnet, dass
das erfasste Muster durch eine Abbildung aus Bildelementen dargestellt ist, die jeweils einen Multi-Bit- Bildelementwert aufweisen, und dass die Vorverarbeitungseinrichtung
(a) eine Bestimmungseinrichtung (604) zur Bestimmung von Komplementen jedes Bildelementwertes,
(b) eine Auswahleinrichtung (605) zur Auswahl des Minimums der Komplemente als Rauschwert,
(c) eine Subtrahiereinrichtung (606) zur Subtraktion des Rauschwertes von jedem Komplement und
(d) eine Ersetzungseinrichtung (607) zum wahlweisen Er setzen der Komplemente durch einen Basiswert im Ansprechen darauf, dass die Komplemente einen vorbestimmten Schwellenwert nicht überschreiten, aufweist.
7. Vorrichtung nach Anspruch C, wobei die Vorverarbeitungseinrichtung ferner eine Filtereinrichtung (204) zum Filtern von Bildelementwerten durch wahlweises Zuordnen eines vorbestimmten gefilterten Bildelementwertes zu einem Untersatz der Bildelemente im Ansprechen darauf, dass die Werte der Bildelemente in dem Untersatz einen Schwellenwert nicht überschreiten, aufweist.
8. Vorrichtung nach Anspruch 6 oder 7, wobei die Segmentiereinrichtung eine Definiereinrichtung (608) zur Definition eines Rahmens um das erfasste Muster enthält, und wobei die Vorverarbeitungseinrichtung ferner
(a) eine Bestimmungseinrichtung (206) zur Bestimmung eines Schwerpunkts des erfassten Musters und
(b) eine Positionierungseinrichtung (206) zur Positionierung des erfassten Musters in dem Rahmen derart, dass der Schwerpunkt sich bezüglich des Rahmens im Mittelpunkt befindet, aufweist.
9. Vorrichtung nach einem der Ansprüche 6 bis 8, wobei die Eingabeeinrichtung eine optische Abtasteinrichtung (102) umfasst.
10. Vorrichtung nach einem der Ansprüche 6 bis 9, wobei das neuronale Netzwerk
eine erste Schicht (261 bis 280) aus Neuronen, die zur Annahme des vorverarbeiteten Mustersignals als Eingangssignal und zur Erzeugung eines Satzes von Zwischensignalen daraus eingerichtet ist,
eine zweite Schicht (301 bis 394) aus Neuronen, die zur Annahme der Zwischensignale als Eingangssignal und zur Erzeugung eines Satzes von Vorlagengrößen daraus eingerichtet ist,
und
eine Vergleichereinrichtung (395) zur Bestimmung des Maximums der Vorlagengrößen und zur Erzeugung des Ausgangssignals im Ansprechen darauf aufweist.
11. Vorrichtung nach Anspruch 10, wobei das vorverarbeitete Mustersignal 3000 der Multi-Bit-Werte aufweist, wobei die erste Neuronenschicht 20 Neuronen aufweist, und wobei die zweite Neuronenschicht 94 Neuronen aufweist.
12. Vorrichtung nach Anspruch 10, wobei die zweite Neuronenschicht (301-394) die gleiche Anzahl an Neuronen wie die Anzahl der bekannten Vorlagenmuster aufweist.
13. Vorrichtung nach einem der Ansprüche 6 bis 12, wobei die Vorverarbeitungseinrichtung (106) eine Entfernungseinrichtung (202, 204) zur Entfernung von Rauschen aus dem Bildsignal aufweist.
14. Vorrichtung nach Anspruch 8, mit einer Dither- Einrichtung (208), die während des Trainierens des neuronalen Netzwerks zur zufälligen Verschiebung der Position eines Vorlagenbildes in dem Rahmen eingerichtet ist.
DE69422446T 1993-04-29 1994-04-28 Mustererkennung Expired - Fee Related DE69422446T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/055,523 US5475768A (en) 1993-04-29 1993-04-29 High accuracy optical character recognition using neural networks with centroid dithering

Publications (2)

Publication Number Publication Date
DE69422446D1 DE69422446D1 (de) 2000-02-10
DE69422446T2 true DE69422446T2 (de) 2000-06-15

Family

ID=21998420

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69422446T Expired - Fee Related DE69422446T2 (de) 1993-04-29 1994-04-28 Mustererkennung

Country Status (4)

Country Link
US (2) US5475768A (de)
EP (1) EP0622750B1 (de)
JP (1) JPH0773329A (de)
DE (1) DE69422446T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018100315A1 (de) * 2018-01-09 2019-07-11 Connaught Electronics Ltd. Erzeugen von Eingabedaten für ein konvolutionelles neuronales Netzwerk
DE102018100238A1 (de) * 2018-01-08 2019-07-11 Connaught Electronics Ltd. Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0663644B1 (de) * 1994-01-13 2002-09-18 STMicroelectronics S.r.l. Anlage zur Bilderkennung alphanumerischen Zeichen
US5475768A (en) * 1993-04-29 1995-12-12 Canon Inc. High accuracy optical character recognition using neural networks with centroid dithering
JP3463288B2 (ja) * 1994-08-19 2003-11-05 インターナショナル・ビジネス・マシーンズ・コーポレーション ヒストリカル・データに対してコンテキスト・ナビゲーションを行うための方法及び装置
US5739518A (en) * 1995-05-17 1998-04-14 Metanetics Corporation Autodiscrimination for dataform decoding and standardized recording
US5774831A (en) * 1996-12-06 1998-06-30 Gupta; Surender Kumar System for improving average accuracy of signals from global positioning system by using a neural network to obtain signal correction values
US6665639B2 (en) * 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
WO1998050814A1 (en) * 1997-05-05 1998-11-12 Roustaei Alexander R Optical scanner and image reader for reading images and decoding optical information including one and two dimensional symbologies at variable depth of field
US6044375A (en) * 1998-04-30 2000-03-28 Hewlett-Packard Company Automatic extraction of metadata using a neural network
US6996549B2 (en) * 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8682077B1 (en) 2000-11-28 2014-03-25 Hand Held Products, Inc. Method for omnidirectional processing of 2D images including recognizable characters
JP2002312762A (ja) * 2001-04-12 2002-10-25 Seirei Ind Co Ltd ニューラルネットワークを利用した穀粒選別装置
DE10145608B4 (de) 2001-09-15 2006-01-26 Eads Deutschland Gmbh Modellbasierte Objektklassifikation und Zielerkennung
US7308136B2 (en) * 2002-07-01 2007-12-11 Xerox Corporation Weak edge repositioning in a MRC segmentor
US7113636B2 (en) * 2002-08-30 2006-09-26 Lockheed Martin Corporation Method and computer program product for generating training data for a new class in a pattern recognition classifier
US7480397B2 (en) * 2003-04-18 2009-01-20 Casio Computer Co., Ltd. Fingerprint image reading apparatus
US8081820B2 (en) * 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) * 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
GB0324638D0 (en) * 2003-10-22 2003-11-26 Gore W L & Ass Uk An on-line inspection system
US20060098887A1 (en) * 2004-05-19 2006-05-11 Hazem El-Bakry Mehthod for image conversion
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US7653244B2 (en) * 2005-02-22 2010-01-26 Potts Wesley F Intelligent importation of information from foreign applications user interface
US7416125B2 (en) * 2005-03-24 2008-08-26 Hand Held Products, Inc. Synthesis decoding and methods of use thereof
US20060245654A1 (en) * 2005-04-29 2006-11-02 Microsoft Corporation Utilizing grammatical parsing for structured layout analysis
US8249344B2 (en) * 2005-07-01 2012-08-21 Microsoft Corporation Grammatical parsing of document visual structures
US8509563B2 (en) 2006-02-02 2013-08-13 Microsoft Corporation Generation of documents from images
US20070211930A1 (en) * 2006-03-09 2007-09-13 Terry Dolwick Attribute based image enhancement and display for medical imaging applications
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
JP4926116B2 (ja) * 2008-04-16 2012-05-09 株式会社日立ハイテクノロジーズ 画像検査装置
US8416256B2 (en) * 2009-03-18 2013-04-09 Stmicroelectronics, Inc. Programmable dithering for video displays
US8660371B2 (en) * 2010-05-06 2014-02-25 Abbyy Development Llc Accuracy of recognition by means of a combination of classifiers
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
WO2018116589A1 (ja) * 2016-12-19 2018-06-28 株式会社安川電機 産業機器用の画像認識プロセッサ及びコントローラ
RU173468U1 (ru) * 2017-03-27 2017-08-29 Акционерное общество "ЭЛВИС-НеоТек" Устройство каскадной обработки потока изображений с помощью свёрточных нейронных сетей
RU2651147C1 (ru) * 2017-03-27 2018-04-18 Акционерное общество "ЭЛВИС-НеоТек" Устройство и способ каскадной обработки потока изображений с помощью свёрточных нейронных сетей
SG10201707094VA (en) 2017-08-30 2019-03-28 Mastercard International Inc System and Method for Transmitting Payment Card Information, and Payment Card
US20200065654A1 (en) * 2018-08-22 2020-02-27 Electronics And Telecommunications Research Institute Neural network fusion apparatus and modular neural network fusion method and matching interface generation method for the same
JP2020039020A (ja) * 2018-09-03 2020-03-12 ソニーセミコンダクタソリューションズ株式会社 画像処理装置および画像処理方法
CN110110780B (zh) * 2019-04-30 2023-04-07 南开大学 一种基于对抗神经网络和海量噪声数据的图片分类方法
KR102262085B1 (ko) * 2019-08-01 2021-06-09 단국대학교 산학협력단 기기의 운전상태 분석 시스템
US11991251B2 (en) * 2021-09-15 2024-05-21 Citrix Systems, Inc. Access for resources during remote session

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3760356A (en) * 1971-12-17 1973-09-18 Honeywell Inf Systems Technique for determining the extreme binary number from a set of binary numbers
US3846752A (en) * 1972-10-02 1974-11-05 Hitachi Ltd Character recognition apparatus
US3993976A (en) * 1974-05-13 1976-11-23 The United States Of America As Represented By The Secretary Of The Air Force Method and apparatus for pattern analysis
US3930231A (en) * 1974-06-10 1975-12-30 Xicon Data Entry Corp Method and system for optical character recognition
US4241329A (en) * 1978-04-27 1980-12-23 Dialog Systems, Inc. Continuous speech recognition method for improving false alarm rates
US4225850A (en) * 1978-11-15 1980-09-30 Rockwell International Corporation Non-fingerprint region indicator
JPS6016673B2 (ja) * 1978-12-25 1985-04-26 川崎重工業株式会社 サ−ボ系における被検体認識装置
JPS5654479A (en) * 1979-10-12 1981-05-14 Hitachi Ltd Picture image data processor
US5161203A (en) * 1981-08-06 1992-11-03 Buckley B Shawn Self-organizing circuits
US4513441A (en) * 1983-08-02 1985-04-23 Sparta, Inc. Image comparison system
US4817176A (en) * 1986-02-14 1989-03-28 William F. McWhortor Method and apparatus for pattern recognition
US4965725B1 (en) * 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US4958939A (en) * 1988-11-14 1990-09-25 Honeywell Inc. Centering scheme for pattern recognition
US5121443A (en) * 1989-04-25 1992-06-09 Spectra-Physics, Inc. Neural net system for analyzing chromatographic peaks
US5263097A (en) * 1991-07-24 1993-11-16 Texas Instruments Incorporated Parameter normalized features for classification procedures, systems and methods
JPH07117950B2 (ja) * 1991-09-12 1995-12-18 株式会社エイ・ティ・アール視聴覚機構研究所 パターン認識装置およびパターン学習装置
CA2081406C (en) * 1991-12-23 1997-09-16 Chinmoy Bhusan Bose Method and apparatus for connected and degraded text recognition
US5453295A (en) * 1992-01-15 1995-09-26 Morton International, Inc. Method for preventing filiform corrosion of aluminum wheels by powder coating with a thermosetting resin
US5245672A (en) * 1992-03-09 1993-09-14 The United States Of America As Represented By The Secretary Of Commerce Object/anti-object neural network segmentation
JP2737583B2 (ja) * 1992-11-26 1998-04-08 松下電器産業株式会社 ニューラルネットワーク回路
US5305392A (en) * 1993-01-11 1994-04-19 Philip Morris Incorporated High speed, high resolution web inspection system
US5475768A (en) * 1993-04-29 1995-12-12 Canon Inc. High accuracy optical character recognition using neural networks with centroid dithering

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018100238A1 (de) * 2018-01-08 2019-07-11 Connaught Electronics Ltd. Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks
DE102018100315A1 (de) * 2018-01-09 2019-07-11 Connaught Electronics Ltd. Erzeugen von Eingabedaten für ein konvolutionelles neuronales Netzwerk

Also Published As

Publication number Publication date
EP0622750A2 (de) 1994-11-02
DE69422446D1 (de) 2000-02-10
US5625707A (en) 1997-04-29
EP0622750B1 (de) 2000-01-05
US5475768A (en) 1995-12-12
EP0622750A3 (de) 1995-04-26
JPH0773329A (ja) 1995-03-17

Similar Documents

Publication Publication Date Title
DE69422446T2 (de) Mustererkennung
DE69308905T2 (de) Verarbeiten von mit Punktmatrix- oder Tintenstrahlkopf gedrucktem Text für optische Zeichenerkennung
DE69426479T2 (de) Optische Mehrfontzeichenerkennung mit einem Verbindungsschachtelansatz
DE69604481T2 (de) Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern
DE69427567T2 (de) Verfahren zum Auffinden eines Histogrammbereichs von Interesse für die verbesserte Grauskalenwiedergabe von Röntgenbildern
DE69610689T2 (de) System zum Klassifizieren von Fingerabdrücken
DE60130742T2 (de) Mustererkennung mit hierarchischen Netzen
Alginahi Preprocessing techniques in character recognition
DE69226846T2 (de) Verfahren zur Bestimmung von Wortgrenzen im Text
DE69222141T2 (de) Verfahren und Gerät zur Erkennung von sich berührendem und degradiertem Text
DE69428089T2 (de) Gerät und Verfahren zur Bildanalyse
DE69329380T2 (de) Verfahren zum Segmentieren von Bildern und Klassifizieren von Bildelementen zur Dokumentverarbeitung
DE4445386C1 (de) Verfahren und Vorrichtung zur Trennung einer Vordergrundinformation von einer Hintergrundinformation in einer Vorlage
DE69230629T2 (de) Verfahren und Vorrichtung zur Bildverbesserung
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE69521184T2 (de) Gerät zur Bildverarbeitung gemäss einem lokal ermittelten Bildregionentyp
DE102007050568A1 (de) Verfahren und Einrichtung zur Objekterkennung in einem Bild
DE69925354T2 (de) Bildverarbeitungssystem um vertikale Muster auf abgetasteten Bildern zu reduzieren
DE69232229T2 (de) Vorrichtung und Verfahren zur Mustererkennung
DE69423607T2 (de) Verfahren zum klassifizieren von bildern mit ausgabeabbildungen
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE69130535T2 (de) Schriftzeichenerkennungsverfahren und -vorrichtung zur lokalisierung und ermittlung vorbestimmter daten eines dokumentes
DE69230940T2 (de) Verfahren zum Ableiten der Merkmale von Zeichen in einem Zeichenerkennungssystem
DE69529015T2 (de) Schnelligkeits- und Erkennungsverbesserung für OCR mittels normalisierter Höhen-/Breitenposition
DE69324977T2 (de) Bitmap-bildsegmentierung unter anwendung eines ladungsmodells fuer pixels

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee