DE69422446T2 - Mustererkennung - Google Patents
MustererkennungInfo
- Publication number
- DE69422446T2 DE69422446T2 DE69422446T DE69422446T DE69422446T2 DE 69422446 T2 DE69422446 T2 DE 69422446T2 DE 69422446 T DE69422446 T DE 69422446T DE 69422446 T DE69422446 T DE 69422446T DE 69422446 T2 DE69422446 T2 DE 69422446T2
- Authority
- DE
- Germany
- Prior art keywords
- pattern
- template
- image
- neural network
- preprocessing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003909 pattern recognition Methods 0.000 title description 10
- 238000013528 artificial neural network Methods 0.000 claims description 45
- 210000002569 neuron Anatomy 0.000 claims description 28
- 238000007781 pre-processing Methods 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 15
- 238000000034 method Methods 0.000 claims description 13
- 230000005484 gravity Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 7
- 230000000295 complement effect Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims 3
- 238000012545 processing Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 238000012015 optical character recognition Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 235000016796 Euonymus japonicus Nutrition 0.000 description 1
- 240000006570 Euonymus japonicus Species 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- XGVXKJKTISMIOW-ZDUSSCGKSA-N simurosertib Chemical compound N1N=CC(C=2SC=3C(=O)NC(=NC=3C=2)[C@H]2N3CCC(CC3)C2)=C1C XGVXKJKTISMIOW-ZDUSSCGKSA-N 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
- Die vorliegende Erfindung bezieht sich im allgemeinen auf eine Bildverarbeitung und insbesondere auf die Erkennung von Mustern, wie optischen Zeichen, durch Anlegen erfasster Muster an ein neuronales Netzwerk, das zur Erkennung derartiger Muster als einer eines Satzes von Mustervorlagen entsprechend trainiert ist.
- Eine Vielzahl von Verfahren wurde in der Vergangenheit zur Mustererkennung vorgeschlagen. Ein erheblicher Forschungs- und Entwicklungsaufwand geschah insbesondere auf dem Gebiet der optischen Zeichenerkennung (OCR). Als Beispiel seien S. N. Srihari, V. Govindaraju, J. J. Hull, R. K. Fenrich und S. Lam, "Pattern Recognition, Character Recognition and Optical Character Readers", Technical Report CEDAR-TR-91-1, Center for Document Analysis and Recognition, State University of New York at Buffalo, Buffalo, N. Y., Mai 1991, angeführt.
- Bekannte OCR-Verfahren unterscheiden sich weitgehend in ihren Ansätzen. Einige frühe Versuche überlagerten Bitmaps erfasster Bilder über Vorlagen bekannter Zeichen. Derartige Verfahren waren äußerst empfindlich gegenüber Faktoren wie Schriftartunterschieden, Asymmetrie, Vergrößerung und Verkleinerung. Andere Ansätze konzentrierten sich auf die Extraktion bestimmter Merkmale aus erfassten Zeichen. Die Ergebnisse variieren in Abhängigkeit von der bestimmten Auswahl und Verarbeitung der Merkmale.
- Das US-Patent Nr. 3,846,752 von Nakano et al. offenbart ein Zeichenerkennungsgerät, bei dem die Dichteverteilung eines Zeichens verwendet wird. Das Frequenzspektrum der Dichte verteilung wird mit dem der Dichteverteilungen verglichen, die bekannten Zeichen entsprechen, und das bekannte Zeichen mit dem Fourier-transformierten Spektrummuster, das dem des erfassten Zeichens am ähnlichsten ist, wird als erkanntes Zeichen ausgegeben.
- Das US-Patent Nr. 4,817,176 von Marshall et al. offenbart ein weiteres Mustererkennungsverfahren unter Verwendung der Fourier-Transformation mit verschiedenen Korrekturen für Amplituden- und Phasendifferenzen.
- Das US-Patent Nr. 3,930,231 von Henrichon, Jr., et al. offenbart die Verwendung eines vielfachen Zellengitters zur Erfassung einer Musterdichte und zur Merkmalserkennung. Ein Vektorsignal wird für ein erfasstes Zeichen beruhend auf dem Vorhandensein oder dem Fehlen jedes erkennbaren Merkmals erzeugt, und dieser Vektor wird mit bekannte Zeichen darstellenden Vektoren verglichen.
- Das US-Patent Nr. 3,993,976 von Ginsburg offenbart eine Musteranalyse unter Verwendung einer Transformation zum Erhalten von Ortsfrequenzen. Die Ortsfrequenzen werden zur Extraktion von Musterinformationen zur Bestimmung der allgemeinen Form, Kanten-, Textur- und Tiefeninformationen des erfassten Musters gefiltert.
- Das US-Patent Nr. 4,513,441 von Henshaw offenbart einen Vergleich von zwei Bildern durch Ausbilden einer zusammengesetzten Überlagerung der Bilder und der Untersuchung der darin vorhandenen Phasendifferenzen.
- Auf anderen Gebieten offenbart das US-Patent Nr. 4,225,850 von Chang et al. die Verwendung von Fourier-Transformationsverfahren zur Erfassung von Bereichen eines Bildfeldes, das keine Handschriftbilder enthält. Das US-Patent Nr. 4,547,800 von Masaki offenbart die Erfassung von Positions abweichungen von Werkstücken durch die Durchführung paralleler Transformationen und Rotationen bei Werkstückbildern und durch Durchführen von Vergleichen mit Referenzbildinformationen. Das US-Patent Nr. 4,346,405 von Yoda et al. offenbart die Erfassung temporärer Änderungen bei Fernsehbildern durch Teilen eines Fernsehschirms in Blöcke und Verarbeiten von X-Y-Daten für darin enthaltene visuelle Informationen. Das US-Patent Nr. 4,241,329 von Bahler et al. offenbart eine Spracherkennung unter Verwendung spektraler Statistiken zur Erkennung eines Schlüsselworts in einem kontinuierlichen Audiosignal. Das US-Patent Nr. 3,760,356 von Srivastava offenbart ein Verfahren zur Bestimmung einer extremen Binärzahl in einem Satz von Binärzahlen.
- Neuronale Netzwerke wurden auch bei der Aufgabe der OCR angewendet. Bei J. Loncelle, et al., Optical Character Recognition and Cooperating Neural Networks Techniques, ARTIFICIAL NEURAL NETWORKS, 2, I. Aleksander und J. Taylor, Ed., Elsevier Science Publishers, B. V., 1992, ist ein auf einem neuronalen Netzwerk beruhendes OCR-System beschrieben, das Fehlerwahrscheinlichkeiten in der Größenordnung von 10&supmin;² liefert. Bei A. Khotanzad und J. Lu, Classification of In variant Image Representations Using a Neural Network, 38 IEEE TRANSACTIONS ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING 6, Seiten 1028 bis 1038, Juni 1990, ist ein weiteres auf einem neuronalen Netzwerk basierendes OCR-System beschrieben, das eine perfekte Erkennungsgenauigkeit für Bilder mit großem Signalrauschabstand liefert, jedoch eine relativ geringe Genauigkeit für mit Rauschen behaftete Bilder.
- Aus Himes, G. S. et R. M. Inigo "Centroid calculation using neural networks" J. of Electronic Imaging, Band 1, Nr. 73, Januar 1992, Seiten 73 bis 87 ist bekannt, ein Zielerkennungssystem bereitzustellen, in dem ein Eingangsbild segmentiert wird, ein Schwerpunkt berechnet wird und eine Bildverschiebung entsprechend der Schwerpunktsberechnung vor der Erkennung unter Verwendung eines neuronalen Netzwerks anzuwenden. Es können Graustufenbildelementwerte oder binäre Bildelementwerte verarbeitet werden.
- Aus Khotanzad, A. et J. H. Lu "Distortion invariant character recognition by a multilayer peceptron and backpropagation learning", Int. Joint conf. on Neural Networks, 24. Juli 1988, San Diego, CA, ist bekannt, eine optische Zeichenerkennung eines Bildes auszugestalten, das einer Vorverarbeitung, Merkmalsextraktion und Klassifizierung unter Verwendung eines neuronalen Netzwerks unterzogen wird. Die Bildvorverarbeitung besteht aus einer Schwellenwertbildung zur Binarisierung des Bildes vor der Merkmalsextraktion und -erkennung.
- Keine dieser Lehren liefert ein adäquat robustes Verfahren zur Erkennung optischer Zeichen oder anderer Muster, das einem aus einem bekannten Satz von Mustern in Situationen entspricht, in denen das Bild durch einen erheblichen Betrag an Rauschen verschlechtert ist.
- Die vorliegende Erfindung sucht die vorstehend angeführten Probleme zu lösen.
- Erfindungsgemäß ist ein Verfahren zur Erkennung eines Musters in einem Bild als einem Vorlagemuster eines Satzes aus vorbestimmten Vorlagemustern entsprechend ausgestaltet, mit den Schritten:
- Eingeben von Bilddaten, die das zu erkennende Muster enthalten;
- Erfassen des Musters durch Segmentieren der Daten zum Erhalten eines erfassten Musters,
- Vorverarbeiten des erfassten Musters zur Erzeugung eines vorverarbeiteten erfassten Musters, Anlegen des vorverarbeiteten erfassten Musters als Eingangssignal an ein neuronales Netzwerk, das zur Erkennung der vorbestimmten Vorlagemuster trainiert ist, und Erkennen des vorverarbeiteten erfassten Musters durch den Betrieb des neuronalen Netzwerks zur Ausgabe eines Ausgangssignals, das eines der vorbestimmten Vorlagemuster darstellt, dem das erfasste Muster entspricht, dadurch gekennzeichnet, dass das erfasste Muster durch eine Abbildung aus Bildelementen dargestellt ist, die jeweils einen Multi-Bit-Bildelementwert aufweisen, und dass der Vorverarbeitungsschritt die Unterschritte umfasst:
- (a) Bestimmen von Komplementen jedes Bildelementwerts,
- (b) Auswählen des Minimums der Komplemente als Rauschwert,
- (c) Subtrahieren des Rauschwertes von jedem Komplement und
- (d) wahlweises Ersetzen der Komplemente durch einen Basiswert im Ansprechen darauf, dass die Komplemente einen vorbestimmten Schwellenwert nicht überschreiten.
- Gemäß einem beschriebenen Ausführungsbeispiel wird ein erfasstes Muster aus einem Satz bekannter Vorlagemuster erkannt, indem zuerst ein neuronales Netzwerk mit den bekannten Vorlagemustern trainiert wird, das erfasste Muster vorverarbeitet wird und dann das vorverarbeitete erfasste Muster an das neuronale Netzwerk angelegt wird. Gemäß einem Ausführungsbeispiel beinhaltet das Trainieren des neuronalen Netzwerks eine Vorverarbeitung, bei der die Position jedes Vorlagemusters des Satzes der Vorlagemuster in einem Musterrahmen zufällig verschoben wird. Die Vorverarbeitung wird durch das Invertieren von Werten mehrwertiger Bildelemente, die das erfasste Muster umfassen, Bestimmen eines Rauschpegels und Subtrahieren des Rauschpegels von den Bildelementwerten und Zuordnen neuer Basiswerte zu Bildelementen mit Werten unterhalb eines bestimmten Schwellenwerts bewirkt.
- Fig. 1 zeigt ein schematisches Blockschaltbild der erfindungsgemäßen Vorrichtung zur Mustererkennung.
- Fig. 2 zeigt ein schematisches Blockschaltbild einer Vorverarbeitungseinrichtung für die erfindungsgemäße Vorrichtung in Fig. 1.
- Fig. 3 zeigt ein schematisches Blockschaltbild eines erfindungsgemäßen neuronalen Netzwerks.
- Fig. 4 zeigt ein schematisches Blockschaltbild eines Neurons des erfindungsgemäßen neuronalen Netzwerks in Fig. 3.
- Fig. 5 zeigt ein Ablaufdiagramm von Schritten, die beim erfindungsgemäßen Trainieren eines neuronalen Netzwerks verwendet werden.
- Fig. 6 zeigt ein Ablaufdiagramm von erfindungsgemäßen Verarbeitungsschritten zur Mustererkennung.
- In Fig. 1 ist ein System 100 zur erfindungsgemäßen Mustererkennung gezeigt. Das System 100 umfasst vier Hauptfunktionsblöcke. Eine Abtasteinrichtung 102 wird zum Erhalten eines zweidimensionalen Bildelementwertarrays verwendet, das das abgetastete Bild darstellt, und das zu erkennende Muster aufweist. Eine Segmentiereinrichtung 104 erfasst das Muster, indem sie es von anderen Bildelementen trennt. Die Vorverarbeitungseinrichtung 106 führt eine Verarbeitung bei dem erfassten Muster zur Erleichterung der Mustererkennung durch. Ein neuronales Netzwerk 108 nimmt das erfasste, vorverarbeitete Muster als Eingangssignal entgegen und liefert als Ausgangssignal ein das erkannte Muster darstellendes Signal. Gemäß einem bevorzugten Ausführungsbeispiel werden eine herkömmliche Abtasteinrichtung 102 und eine herkömmliche Segmentiereinrichtung 104 zur Implementation der Erfindung verwendet. Gemäß einem bevorzugten Ausführungsbeispiel ist die Abtasteinrichtung 102 eine digitale Abtasteinrichtung "ScanJet IIc" von Hewlett Packard Co., und liefert eine Auflösung von 400 Punkten (Bildelementen) pro Inch, wobei jedes Bildelement mit einer Acht-Bit-Grauskalaauflösung quantisiert wird. Die Segmentiereinrichtung 104 wird üblicherweise mittels Software implementiert, die auf einem herkömmlichen universellen 33 MHz-IBM-kompatiblen Personalcomputer mit einem 80486 Mikroprozessor arbeitet. Die Vorverarbeitungseinrichtung 106 wird nachstehend ausführlicher unter Bezugnahme auf Fig. 2 beschrieben, und das neuronale Netzwerk 108 wird ausführlicher unter Bezugnahme der Fig. 3 und 4 beschrieben.
- Gemäß Fig. 2 besteht die Vorverarbeitungseinrichtung 106 aus fünf Hauptfunktionsblöcken. Ein Invertierer 202 nimmt als Eingangssignal eine 50 Bildelemente breite · 60 Bildelemente hohe Darstellung des erfassten Musterbildes entgegen, das von der Segmentiereinrichtung 104 erhalten wird, und ersetzt jeden Bildelementwert mit einem Wert, der das Komplement des ursprünglichen Bildelementwerts darstellt. Die Wirkung dieses Vorgangs besteht in der Invertierung der weißen Abschnitte des Bildes in Schwarz, und der schwarzen Abschnitte des Bildes in Weiß. Bei einem bevorzugten Ausführungsbeispiel liefern die Abtasteinrichtung 102 und die Segmentiereinrichtung 104 als Ausgangssignal eher ein Grauskalenbild als ein Schwarz-Weiß-Bild, so dass der Invertierer 202 auch hellgraue Bildelemente in dunkelgraue, und dunkelgraue Bildelemente in hellgraue ändert. Bei einem bevorzugten Ausführungsbeispiel liefern die Abtasteinrichtung 102 und die Segmentiereinrichtung 104 eine Bildauflösung von 400 Punkten (Bildelementen) pro Inch über einen 3000- Quadratmeter-Bildelementrahmen (50 Bildelemente breit · 60 Bildelemente hoch).
- Ein Rauschfilter 204 führt zwei Funktionen durch. Zum einen bestimmt das Rauschfilter 204 den minimalen Bildelementwert des erfassten und invertierten Musters und subtrahiert den Wert von jedem Bildelement des Musters. Somit wird der minimale Bildelementwert für jedes Muster Null. Zum zweiten vergleicht das Rauschfilter 204 jeden resultierenden Bildelementwert mit einem minimalen Schwellenwert und ersetzt alle Bildelementwerte unterhalb des Schwellenwerts durch einen Basiswert. Gemäß einem bevorzugten Ausführungsbeispiel ist der Schwellenwert auf 20% des maximalen Bildelementwerts in dem Muster eingestellt, und der Basiswert liegt bei Null. Es wurde herausgefunden, dass diese Bildelementwertersetzung die Empfindlichkeit des Systems 100 bezüglich Hintergrundrauschen verringert, ohne die Erkennungsgenauigkeit merklich zu verschlechtern.
- Das Ausgangssignal des Rauschfilters 204 wird einer Schwerpunktpositioniereinrichtung 206 zugeführt. Die Schwerpunktpositioniereinrichtung 206 bestimmt zuerst den Schwerpunkt des rauschgefilterten Musters, wobei der Schwerpunkt ein Ort ist, der durch das gewichtete Mittel der Koordinaten der Bildelemente in dem Muster definiert ist, wobei die Gewichte den Bildelementwerten entsprechen. Ist der Schwerpunkt bestimmt, wird das gesamte Muster derart verschoben, dass der Schwerpunkt im Mittelpunkt des 50 · 60-Rahmens, wie vorstehend beschrieben, liegt.
- Das Ausgangssignal der Schwerpunktpositioniereinrichtung 206 wird einer Dither-Verarbeitungseinrichtung 208 zugeführt. Die Dither-Verarbeitungseinrichtung 208 verschiebt die Position eines zugeführten Musters zufällig vor der Zufuhr des Musters zu einer Normalisiereinrichtung 210 und schließlich zu dem neuronalen Netzwerk 108, führt diese Funktion lediglich nur aus, wenn das neuronale Netzwerk 108 trainiert wird. Gemäß einem bevorzugten Ausführungsbeispiel ist die zufällige Verschiebung unabhängig in der horizontalen und vertikalen Richtung über den Bereich [-2, +2] Bildelemente in jeder Richtung vom Schwerpunkt aus. Der Zweck einer derartigen Ortsverschiebung besteht in der Sicherstellung einer Erkennung, die bezüglich Eingangsverschiebungen invariant ist. Die Dither-Verarbeitungseinrichtung 208 führt derartige Verschiebungen lediglich während des Trainierens des neuronalen Netzwerks 108 aus und führt während der Erkennung keine Funktion durch.
- Das Ausgangssignal der Dither-Verarbeitungseinrichtung 208 wird der Normalisiereinrichtung 210 zugeführt, die einen Vektor der Dimension 3000 durch Verketten jeder der 60 Reihen der Bildelemente ausbildet, die das rauschreduzierte und positionierte Muster umfassen, und dann diesen Vektor auf Einheitslänge durch Multiplikation jedes Bildelementwerts mit einem Gesamtskalierungswert skaliert. Diese Normalisierung dient als automatische Helligkeitsanpassung zur Sicherstellung, dass die Erkennung bezüglich relativer Dunkelheit oder Helligkeit eines Musters unempfindlich ist.
- Gemäß einem bevorzugten Ausführungsbeispiel wird das schwerpunktpositionierte und möglicherweise der Dither- Verarbeitung unterzogene Muster der Normalisierungseinrichtung 210 zugeführt, aber der Fachmann erkennt, dass das Muster nicht vor der Normalisierung positioniert werden muss. Bei einem alternativen Ausführungsbeispiel kann das Ausgangssignal des Rauschfilters 204 der Normalisierungseinrichtung 210 vor der Positionierung durch die Schwerpunktverarbeitungseinrichtung 206 und möglichen Dither- Verarbeitung durch die Dither-Verarbeitungseinrichtung 208 zugeführt werden.
- Welche Topologie auch immer verwendet wird, das normalisierte, schwerpunktpositionierte Muster wird dann dem neuronalen Netzwerk 108 zur Erkennung zugeführt.
- In Fig. 3 sind die Grundelemente eines neuronalen Netzwerks wie des Netzwerks 108 in Fig. 1 gezeigt. Gemäß einem bevorzugten Ausführungsbeispiel weist das neuronale Netzwerk 108 3000 Eingänge, einen für jedes Bildelement eines 50 · 60 Bildelementmusters auf, und ist in der vollständig verbundenen Vorwärtskopplungsarchitektur implementiert, das heißt, jeder neuronale Ausgang von einer Schicht wird jedem neuronalen Eingang der nächsten Schicht zugeführt, und Daten fließen lediglich von links nach rechts in Fig. 3. Aus Klarheitsgründen sind die Eingänge des neuronalen Netzwerks in Fig. 3 als einzelne Eingänge gezeigt. Das neuronale Netzwerk 108 weist zwei Niveaus von Neuronen, beispielsweise 261, und einen Ausgangskomparator 395 auf. Ein erstes Niveau von Neuronen, beispielsweise die Neurone 261 bis 280, besteht aus zwanzig Neuronen, von denen jedes mit allen 3000 Eingängen wie vorstehend beschrieben verbunden ist, und von denen jedes ein Ausgangssignal liefert. Ein zweites Niveau von Neuronen, beispielsweise die Neurone 301 bis 394, besteht aus 94 Neuronen, von denen jedes die Ausgangssignale aus den ersten Niveauneuronen, beispielsweise 261, als Eingangssignal entgegennimmt. Jedes Neuron des zweiten Niveaus, beispielsweise 301, erzeugt ein einzelnes Ausgangssignal. Der Ausgangskomparator 395 nimmt als Eingangssignal die durch die Neurone des zweiten Niveaus, beispielsweise 301, erzeugten Signale entgegen und erzeugt ein Signal, das anzeigt, welches Neuron des zweiten Niveaus, beispielsweise 301, das größte Ausgangssignal erzeugt hat. Unter Verwendung der in Fig. 3 dargestellten Architektur können 94 verschiedene Muster erkannt werden, eines für jedes Neuron des zweiten Niveaus, beispielsweise 301. Im allgemeinen muss die Anzahl der Schichten und die Anzahl der Neurone pro Schicht nicht in die {3000, 20, 94}-Architektur wie vorstehend beschrieben gezwungen werden. Allerdings liefern einige Architekturen bessere Ergebnisse als andere. Beispielsweise sollte die letzte Schicht bzw. die Ausgangsschicht so viele Neurone wie die gewünschte Anzahl erkennbarer Muster haben. Des weiteren sind die anderen Schichten in gewisser Weise durch die Anzahl an Freiheitsgraden festgelegt, die zur eindeutigen Erkennung der Muster beruhend auf der Anzahl an verfügbaren Eingangssignalen erforderlich sind. Es wurde herausgefunden, dass die {3000, 20, 94}- Architektur wie vorstehend beschrieben äußerst gute Ergebnisse in der Praxis erzielt.
- Gemäß einem bevorzugten Ausführungsbeispiel ist das neuronale Netzwerk 108 auf herkömmliche bekannte Art und Weise durch Programmieren eines universellen Personalcomputers implementiert.
- In Fig. 4 ist ein Neuron, beispielsweise 301 in Fig. 3, ausführlicher gezeigt. Das Neuron 301 nimmt als Eingangssignal ein logisches "1"-Signal an einem Vorverschiebungsgewichtungselement 400 entgegen, und nimmt auch als Eingangssignale die Ausgangssignale von den Neuronen 261 bis 280 jeweils an entsprechenden Gewichtungselementen 401 bis 420 entgegen. Jedes Element 400 bis 420 multipliziert das zugeführte Signal jeweils mit skalaren Größen w1-w20. Der Satz skalarer Größen w1-w20 kann als das Ausbilden eines 20-dimensionalen Vektors W angesehen werden. Die tatsächlichen Werte der skalaren Größen w1 bis w20 werden im Verlaufe des Trainings des neuronalen Netzwerks wie nachstehend beschrieben angepasst. Die Ausgangsignale der Elemente 400 bis 420 werden durch einen Addierer 450 summiert und dann einer Sigmoidfuriktion 451 zugeführt. Gemäß einem bevorzugten Ausführungsbeispiel lautet die durch die Sigmoidfunktion 451 verwendete bestimmte Sigmoidgleichung wie folgt:
- Sgm(s) = 1/(1 + e-(s)) (Gleichung 1)
- wobei s ein beliebiges, der Sigmoidfunktion 451 zugeführtes Signal ist. Sind die Eingangssignale von den Neuronen 261 bis 280 als Vektor X bezeichnet und sind die skalaren Größen w1-w20 als Vektor W bezeichnet, ist somit die Gesamtübertragungsfunktion für das Neuron 301 durch folgende Gleichung gegeben:
- f(X,W) = 1/(1 + e-(XTW+ω0)) (Gleichung 2)
- wobei XTW das Skalarprodukt der Vektoren X und W ist.
- In Fig. 5 ist ein Ablaufdiagramm der beim Trainieren eines neuronalen Netzwerks, beispielsweise 108, enthaltenen Schritte gemäß der Erfindung gezeigt. Das Training 501 beginnt durch Abtastung 502 eines ein Vorlagemuster enthaltenden Bildes, für das eine Erkennung gewünscht wird, beispielsweise den Buchstaben "E". Wie vorstehend in Verbindung mit der Vorverarbeitungseinrichtung 106 beschrieben, wird das Vorlagebild invertiert 503, indem das Komplement der Bildelementwerte für das Bild genommen wird, ein "Rausch"-Bildelementwert bestimmt 504 und dann von jedem Bildelementwert subtrahiert 505, und solche Bildelementwerte unterhalb eines gegebenen Schwellenwerts werden durch einen Basisbildelementwert ersetzt 506.
- Dann wird ein 50 · 60-Bildelementrahmen um das Vorlagemuster definiert 507. Typischerweise ist die Definition eines derartigen Rahmens im Betrieb der Segmentiereinrichtung 104 enthalten, und der derart definierte Rahmen kann direkt in Schritt 507 verwendet werden. Dann wird der Schwerpunkt des Vorlagemusters bestimmt 508 und das gesamte Vorlagemuster neu positioniert 509, so dass der Schwerpunkt in dem Rahmen zentriert ist. Das Vorlagemuster wird dann durch eine Zufallszahl von Bildelementen in der vertikalen und horizontalen Dimension verschoben 510, zur Entsprechung einer Einheitslänge wie vorstehend beschrieben normalisiert 511, und das resultierende Muster wird dem neuronalen Netzwerk zugeführt 512. Der tatsächliche Betrieb des neuronalen Netzwerks beim Training ist herkömmlicherweise eine Rückwärtsausbreitung, wie bei vielen verschiedenen Verweisen auf diesem Gebiet beschrieben ist, wie bei A. Dengel, A. Luhn und B. Verberreiter, "Model Based Segmentation and Hypothesis Generation for Recognition of Printed Documents", Proceedings of the SPIE, Band 860, Seiten 89-94, 1988. Als Ergebnis des Trainings werden die skalaren Größen w1-w20 wie vorstehend in Verbindung mit Fig. 4 beschrieben bestimmt. Gemäß einem bevorzugten Ausführungsbeispiel wird eine Zwölf-Punkte-Courier-Schriftart zur Bereitstellung der Vorlagemuster und näherungsweise 430.000 Trainingsiterationen zum Erreichen einer Fehlerwahrscheinlichkeit in der Größenordnung von 10&supmin;&sup6; verwendet.
- In Fig. 6 ist ein Ablaufdiagramm der Arbeitsweise des Systems 100 gemäß der Erfindung gezeigt. Nach dem in Verbindung mit Fig. 5 beschriebenen Training beginnt der Betrieb durch die Abtastung 601 eines Bildes, für das eine Mustererkennung gewünscht wird. Das Bild wird dann zum Erhalten der einzelnen Muster segmentiert 602, die das Bild enthalten. Dann wird überprüft 603, ob die Verarbeitung für alle derartigen Muster abgeschlossen ist. Wenn ja, ist die Verarbeitung abgeschlossen. Andererseits wird wie vorstehend beschrieben das Muster invertiert 604, indem das Komplement der Bildelementwerte genommen wird, ein Rauschbildelementwert bestimmt 605 und von jedem Bildelementwert subtrahiert 606, solche Bildelementwerte unterhalb eines Schwellenwerts durch einen Basiswert ersetzt 607, ein Rahmen um das Muster definiert 608, der Schwerpunkt des Musters bestimmt 609, und das Muster derart positioniert 610, dass sich der Schwerpunkt im Mittelpunkt des Rahmens befindet. Sind diese Schritte abgeschlossen, wird das Muster dem neuronalen Netzwerk zur Erkennung zugeführt 611, und die Verarbeitung kehrt zu Schritt 603 zurück.
- Obwohl die vorstehende Beschreibung sich auf eine optische Erkennung gedruckter Zeichen beschränkt hat, kann die Erfindung auch bei anderen Mustererkennungsarten genauso gut angewendet werden. Beispielsweise kann ein Klangbild anstelle eines optischen Bildes effektiv für eine neuronale Netzwerkerkennung durch Subtraktion eines Rauschpegels von jeder Dimension einer Zeit- oder frequenzbasierten Vektordarstellung des Klangbildes, durch Normalisieren einer derartigen Vektordarstellung oder durch Ersetzen von Komponenten unterhalb eines Schwellenwerts durch einen Basiswert vorverarbeitet werden. Somit kann die Erfindung auf vielen von der optischen Zeichenerkennung verschiedenen Gebieten Anwendung finden.
- Daher wird eine Mustererkennung durch Trainieren eines neuronalen Netzwerks mit Vorlagemustern, Erfassen und Verarbeiten eines Musters, für das eine Erkennung gewünscht wird, und durch Zuführen des erfassten, vorverarbeiteten Musters zu dem trainierten neuronalen Netzwerk erreicht.
- Die vorstehende Beschreibung dient der Darstellung bestimmter Ausführungsbeispiele und soll nicht den Schutzbereich der Erfindung einschränken.
Claims (14)
1. Verfahren zur Erkennung eines Musters in einem Bild
als einem Vorlagenmuster eines Satzes aus vorbestimmten
Vorlagenmustern entsprechend, mit den Schritten
Eingeben (601) von Bilddaten, die das zu erkennende
Muster enthalten,
Erfassen (602) des Musters durch Segmentieren der Daten
zum Erhalten eines erfassten Musters,
Vorverarbeiten (604-610) des erfassten Musters zur
Erzeugung eines vorverarbeiteten erfassten Musters,
Anlegen (611) des vorverarbeiteten erfassten Musters als
Eingangssignal an ein neuronales Netzwerk (108), das zur
Erkennung der vorbestimmten Vorlagenmuster trainiert ist, und
Erkennen des vorverarbeiteten erfassten Musters durch
den Betrieb des neuronalen Netzwerks zur Ausgabe eines
Ausgangssignals, das eines der vorbestimmten Vorlagenmuster
darstellt, dem das erfasste Muster entspricht,
dadurch gekennzeichnet, dass
das erfasste Muster durch eine Abbildung aus
Bildelementen dargestellt ist, die jeweils einen Multi-Bit-
Bildelementwert aufweisen, und dass der
Vorverarbeitungsschritt die Unterschritte umfasst:
(a) Bestimmen (604) von Komplementen jedes
Bildelementwerts,
(b) Auswählen (605) des Minimums der Komplemente als
Rauschwert,
(c) Subtrahieren (606) des Rauschwertes von jedem
Komplement und
(d) wahlweises Ersetzen (607) der Komplemente durch
ei
nen Basiswert im Ansprechen darauf, dass die Komplemente
einen vorbestimmten Schwellenwert nicht überschreiten.
2. Verfahren nach Anspruch 1, wobei der
Vorverarbeitungsschritt den weiteren Schritt umfasst
Filtern von Bildelementwerten durch wahlweises Zuordnen
eines vorbestimmten gefilterten Bildelementwerts zu einem
Untersatz der Bildelemente im Ansprechen, darauf, dass die Werte
der Bildelemente in dem Untersatz einen Schwellenwert nicht
überschreiten.
3. Verfahren nach einem der vorhergehenden Ansprüche,
wobei der Segmentierschritt den Schritt
Definieren (608) eines Rahmens um das erfasste Muster
aufweist, und wobei der Vorverarbeitungsschritt die weiteren
Schritte aufweist
(a) Bestimmen (609) eines Schwerpunkts des erfassten
Musters und
(b) Positionieren (610) des erfassten Musters in dem
Rahmen derart, dass der Schwerpunkt bezüglich des Rahmens im
Mittelpunkt angeordnet ist.
4. Verfahren nach einem der vorhergehenden Ansprüche,
wobei der Eingabeschritt das Abtasten eines Bildes unter
Verwendung einer optischen Abtasteinrichtung (102) umfasst.
5. Verfahren nach einem der vorhergehenden Ansprüche,
mit einem Schritt zum Trainieren des neuronalen Netzwerks,
wobei der Trainierschritt die Unterschritte umfasst
Eingeben (502) von Bilddaten, die eine Vielzahl von
Vorlagenbildern umfassen, die die vorbestimmten Vorlagenmuster
darstellen, und für jedes Vorlagenbild, das einem
entsprechenden Vorlagenmuster entspricht,
(a) Definieren (507) eines Rahmens um das Vorlagenbild,
(b) Bestimmen (508) eines Schwerpunkts des
Vorlagenbildes,
(c) Positionieren (509) des einen Vorlagenbildes in dem
Rahmen derart, dass der Schwerpunkt bezüglich des Rahmens im
Mittelpunkt angeordnet ist,
(d) zufälliges Verschieben (510) nach dem Unterschritt
(c) des einen Vorlagenbildes in dem Rahmen und
(e) Anlegen (512) des zufällig verschobenen
Vorlagenbildes an das neuronale Netzwerk.
6. Vorrichtung (100) zur Erkennung eines Musters in
einem Bild als einem Vorlagenmuster eines Satzes aus
vorbestimmten Vorlagenmustern entsprechend, mit
einer Eingabeeinrichtung (102) zur Eingabe von
Bilddaten, die das zu erkennende Muster enthalten,
einer Erfassungseinrichtung (104) zur Erfassung des
Musters durch Segmentieren der Daten zum Erhalten eines
erfassten Musters,
einer Vorverarbeitungseinrichtung (106) zur
Vorverarbeitung des erfassten Musters zur Erzeugung eines
vorverarbeiteten erfassten Musters und
einem neuronalen Netzwerk (108), das zur Erkennung der
vorbestimmten Vorlagenmuster trainiert ist, und zur Erkennung
des vorverarbeiteten erfassten Musters durch Ausgeben eines
Ausgangssignals eingerichtet ist, das eines der vorbestimmten
Vorlagenmuster darstellt, dem das erfasste Muster entspricht,
dadurch gekennzeichnet, dass
das erfasste Muster durch eine Abbildung aus
Bildelementen dargestellt ist, die jeweils einen Multi-Bit-
Bildelementwert aufweisen, und dass die
Vorverarbeitungseinrichtung
(a) eine Bestimmungseinrichtung (604) zur Bestimmung von
Komplementen jedes Bildelementwertes,
(b) eine Auswahleinrichtung (605) zur Auswahl des
Minimums der Komplemente als Rauschwert,
(c) eine Subtrahiereinrichtung (606) zur Subtraktion des
Rauschwertes von jedem Komplement und
(d) eine Ersetzungseinrichtung (607) zum wahlweisen
Er
setzen der Komplemente durch einen Basiswert im Ansprechen
darauf, dass die Komplemente einen vorbestimmten
Schwellenwert nicht überschreiten, aufweist.
7. Vorrichtung nach Anspruch C, wobei die
Vorverarbeitungseinrichtung ferner eine Filtereinrichtung (204) zum
Filtern von Bildelementwerten durch wahlweises Zuordnen eines
vorbestimmten gefilterten Bildelementwertes zu einem
Untersatz der Bildelemente im Ansprechen darauf, dass die Werte
der Bildelemente in dem Untersatz einen Schwellenwert nicht
überschreiten, aufweist.
8. Vorrichtung nach Anspruch 6 oder 7, wobei die
Segmentiereinrichtung eine Definiereinrichtung (608) zur Definition
eines Rahmens um das erfasste Muster enthält, und wobei die
Vorverarbeitungseinrichtung ferner
(a) eine Bestimmungseinrichtung (206) zur Bestimmung
eines Schwerpunkts des erfassten Musters und
(b) eine Positionierungseinrichtung (206) zur
Positionierung des erfassten Musters in dem Rahmen derart, dass der
Schwerpunkt sich bezüglich des Rahmens im Mittelpunkt
befindet, aufweist.
9. Vorrichtung nach einem der Ansprüche 6 bis 8, wobei
die Eingabeeinrichtung eine optische Abtasteinrichtung (102)
umfasst.
10. Vorrichtung nach einem der Ansprüche 6 bis 9, wobei
das neuronale Netzwerk
eine erste Schicht (261 bis 280) aus Neuronen, die zur
Annahme des vorverarbeiteten Mustersignals als Eingangssignal
und zur Erzeugung eines Satzes von Zwischensignalen daraus
eingerichtet ist,
eine zweite Schicht (301 bis 394) aus Neuronen, die zur
Annahme der Zwischensignale als Eingangssignal und zur
Erzeugung eines Satzes von Vorlagengrößen daraus eingerichtet ist,
und
eine Vergleichereinrichtung (395) zur Bestimmung des
Maximums der Vorlagengrößen und zur Erzeugung des
Ausgangssignals im Ansprechen darauf aufweist.
11. Vorrichtung nach Anspruch 10, wobei das
vorverarbeitete Mustersignal 3000 der Multi-Bit-Werte aufweist, wobei
die erste Neuronenschicht 20 Neuronen aufweist, und wobei die
zweite Neuronenschicht 94 Neuronen aufweist.
12. Vorrichtung nach Anspruch 10, wobei die zweite
Neuronenschicht (301-394) die gleiche Anzahl an Neuronen wie die
Anzahl der bekannten Vorlagenmuster aufweist.
13. Vorrichtung nach einem der Ansprüche 6 bis 12, wobei
die Vorverarbeitungseinrichtung (106) eine
Entfernungseinrichtung (202, 204) zur Entfernung von Rauschen aus dem
Bildsignal aufweist.
14. Vorrichtung nach Anspruch 8, mit einer Dither-
Einrichtung (208), die während des Trainierens des neuronalen
Netzwerks zur zufälligen Verschiebung der Position eines
Vorlagenbildes in dem Rahmen eingerichtet ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/055,523 US5475768A (en) | 1993-04-29 | 1993-04-29 | High accuracy optical character recognition using neural networks with centroid dithering |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69422446D1 DE69422446D1 (de) | 2000-02-10 |
DE69422446T2 true DE69422446T2 (de) | 2000-06-15 |
Family
ID=21998420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69422446T Expired - Fee Related DE69422446T2 (de) | 1993-04-29 | 1994-04-28 | Mustererkennung |
Country Status (4)
Country | Link |
---|---|
US (2) | US5475768A (de) |
EP (1) | EP0622750B1 (de) |
JP (1) | JPH0773329A (de) |
DE (1) | DE69422446T2 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018100315A1 (de) * | 2018-01-09 | 2019-07-11 | Connaught Electronics Ltd. | Erzeugen von Eingabedaten für ein konvolutionelles neuronales Netzwerk |
DE102018100238A1 (de) * | 2018-01-08 | 2019-07-11 | Connaught Electronics Ltd. | Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0663644B1 (de) * | 1994-01-13 | 2002-09-18 | STMicroelectronics S.r.l. | Anlage zur Bilderkennung alphanumerischen Zeichen |
US5475768A (en) * | 1993-04-29 | 1995-12-12 | Canon Inc. | High accuracy optical character recognition using neural networks with centroid dithering |
JP3463288B2 (ja) * | 1994-08-19 | 2003-11-05 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ヒストリカル・データに対してコンテキスト・ナビゲーションを行うための方法及び装置 |
US5739518A (en) * | 1995-05-17 | 1998-04-14 | Metanetics Corporation | Autodiscrimination for dataform decoding and standardized recording |
US5774831A (en) * | 1996-12-06 | 1998-06-30 | Gupta; Surender Kumar | System for improving average accuracy of signals from global positioning system by using a neural network to obtain signal correction values |
US6665639B2 (en) * | 1996-12-06 | 2003-12-16 | Sensory, Inc. | Speech recognition in consumer electronic products |
WO1998050814A1 (en) * | 1997-05-05 | 1998-11-12 | Roustaei Alexander R | Optical scanner and image reader for reading images and decoding optical information including one and two dimensional symbologies at variable depth of field |
US6044375A (en) * | 1998-04-30 | 2000-03-28 | Hewlett-Packard Company | Automatic extraction of metadata using a neural network |
US6996549B2 (en) * | 1998-05-01 | 2006-02-07 | Health Discovery Corporation | Computer-aided image analysis |
US7016539B1 (en) | 1998-07-13 | 2006-03-21 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8682077B1 (en) | 2000-11-28 | 2014-03-25 | Hand Held Products, Inc. | Method for omnidirectional processing of 2D images including recognizable characters |
JP2002312762A (ja) * | 2001-04-12 | 2002-10-25 | Seirei Ind Co Ltd | ニューラルネットワークを利用した穀粒選別装置 |
DE10145608B4 (de) | 2001-09-15 | 2006-01-26 | Eads Deutschland Gmbh | Modellbasierte Objektklassifikation und Zielerkennung |
US7308136B2 (en) * | 2002-07-01 | 2007-12-11 | Xerox Corporation | Weak edge repositioning in a MRC segmentor |
US7113636B2 (en) * | 2002-08-30 | 2006-09-26 | Lockheed Martin Corporation | Method and computer program product for generating training data for a new class in a pattern recognition classifier |
US7480397B2 (en) * | 2003-04-18 | 2009-01-20 | Casio Computer Co., Ltd. | Fingerprint image reading apparatus |
US8081820B2 (en) * | 2003-07-22 | 2011-12-20 | Cognex Technology And Investment Corporation | Method for partitioning a pattern into optimized sub-patterns |
US7190834B2 (en) * | 2003-07-22 | 2007-03-13 | Cognex Technology And Investment Corporation | Methods for finding and characterizing a deformed pattern in an image |
GB0324638D0 (en) * | 2003-10-22 | 2003-11-26 | Gore W L & Ass Uk | An on-line inspection system |
US20060098887A1 (en) * | 2004-05-19 | 2006-05-11 | Hazem El-Bakry | Mehthod for image conversion |
US8437502B1 (en) | 2004-09-25 | 2013-05-07 | Cognex Technology And Investment Corporation | General pose refinement and tracking tool |
US7653244B2 (en) * | 2005-02-22 | 2010-01-26 | Potts Wesley F | Intelligent importation of information from foreign applications user interface |
US7416125B2 (en) * | 2005-03-24 | 2008-08-26 | Hand Held Products, Inc. | Synthesis decoding and methods of use thereof |
US20060245654A1 (en) * | 2005-04-29 | 2006-11-02 | Microsoft Corporation | Utilizing grammatical parsing for structured layout analysis |
US8249344B2 (en) * | 2005-07-01 | 2012-08-21 | Microsoft Corporation | Grammatical parsing of document visual structures |
US8509563B2 (en) | 2006-02-02 | 2013-08-13 | Microsoft Corporation | Generation of documents from images |
US20070211930A1 (en) * | 2006-03-09 | 2007-09-13 | Terry Dolwick | Attribute based image enhancement and display for medical imaging applications |
US8103085B1 (en) | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
JP4926116B2 (ja) * | 2008-04-16 | 2012-05-09 | 株式会社日立ハイテクノロジーズ | 画像検査装置 |
US8416256B2 (en) * | 2009-03-18 | 2013-04-09 | Stmicroelectronics, Inc. | Programmable dithering for video displays |
US8660371B2 (en) * | 2010-05-06 | 2014-02-25 | Abbyy Development Llc | Accuracy of recognition by means of a combination of classifiers |
US9679224B2 (en) | 2013-06-28 | 2017-06-13 | Cognex Corporation | Semi-supervised method for training multiple pattern recognition and registration tool models |
WO2018116589A1 (ja) * | 2016-12-19 | 2018-06-28 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
RU173468U1 (ru) * | 2017-03-27 | 2017-08-29 | Акционерное общество "ЭЛВИС-НеоТек" | Устройство каскадной обработки потока изображений с помощью свёрточных нейронных сетей |
RU2651147C1 (ru) * | 2017-03-27 | 2018-04-18 | Акционерное общество "ЭЛВИС-НеоТек" | Устройство и способ каскадной обработки потока изображений с помощью свёрточных нейронных сетей |
SG10201707094VA (en) | 2017-08-30 | 2019-03-28 | Mastercard International Inc | System and Method for Transmitting Payment Card Information, and Payment Card |
US20200065654A1 (en) * | 2018-08-22 | 2020-02-27 | Electronics And Telecommunications Research Institute | Neural network fusion apparatus and modular neural network fusion method and matching interface generation method for the same |
JP2020039020A (ja) * | 2018-09-03 | 2020-03-12 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置および画像処理方法 |
CN110110780B (zh) * | 2019-04-30 | 2023-04-07 | 南开大学 | 一种基于对抗神经网络和海量噪声数据的图片分类方法 |
KR102262085B1 (ko) * | 2019-08-01 | 2021-06-09 | 단국대학교 산학협력단 | 기기의 운전상태 분석 시스템 |
US11991251B2 (en) * | 2021-09-15 | 2024-05-21 | Citrix Systems, Inc. | Access for resources during remote session |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3760356A (en) * | 1971-12-17 | 1973-09-18 | Honeywell Inf Systems | Technique for determining the extreme binary number from a set of binary numbers |
US3846752A (en) * | 1972-10-02 | 1974-11-05 | Hitachi Ltd | Character recognition apparatus |
US3993976A (en) * | 1974-05-13 | 1976-11-23 | The United States Of America As Represented By The Secretary Of The Air Force | Method and apparatus for pattern analysis |
US3930231A (en) * | 1974-06-10 | 1975-12-30 | Xicon Data Entry Corp | Method and system for optical character recognition |
US4241329A (en) * | 1978-04-27 | 1980-12-23 | Dialog Systems, Inc. | Continuous speech recognition method for improving false alarm rates |
US4225850A (en) * | 1978-11-15 | 1980-09-30 | Rockwell International Corporation | Non-fingerprint region indicator |
JPS6016673B2 (ja) * | 1978-12-25 | 1985-04-26 | 川崎重工業株式会社 | サ−ボ系における被検体認識装置 |
JPS5654479A (en) * | 1979-10-12 | 1981-05-14 | Hitachi Ltd | Picture image data processor |
US5161203A (en) * | 1981-08-06 | 1992-11-03 | Buckley B Shawn | Self-organizing circuits |
US4513441A (en) * | 1983-08-02 | 1985-04-23 | Sparta, Inc. | Image comparison system |
US4817176A (en) * | 1986-02-14 | 1989-03-28 | William F. McWhortor | Method and apparatus for pattern recognition |
US4965725B1 (en) * | 1988-04-08 | 1996-05-07 | Neuromedical Systems Inc | Neural network based automated cytological specimen classification system and method |
US5003490A (en) * | 1988-10-07 | 1991-03-26 | Hughes Aircraft Company | Neural network signal processor |
US4958939A (en) * | 1988-11-14 | 1990-09-25 | Honeywell Inc. | Centering scheme for pattern recognition |
US5121443A (en) * | 1989-04-25 | 1992-06-09 | Spectra-Physics, Inc. | Neural net system for analyzing chromatographic peaks |
US5263097A (en) * | 1991-07-24 | 1993-11-16 | Texas Instruments Incorporated | Parameter normalized features for classification procedures, systems and methods |
JPH07117950B2 (ja) * | 1991-09-12 | 1995-12-18 | 株式会社エイ・ティ・アール視聴覚機構研究所 | パターン認識装置およびパターン学習装置 |
CA2081406C (en) * | 1991-12-23 | 1997-09-16 | Chinmoy Bhusan Bose | Method and apparatus for connected and degraded text recognition |
US5453295A (en) * | 1992-01-15 | 1995-09-26 | Morton International, Inc. | Method for preventing filiform corrosion of aluminum wheels by powder coating with a thermosetting resin |
US5245672A (en) * | 1992-03-09 | 1993-09-14 | The United States Of America As Represented By The Secretary Of Commerce | Object/anti-object neural network segmentation |
JP2737583B2 (ja) * | 1992-11-26 | 1998-04-08 | 松下電器産業株式会社 | ニューラルネットワーク回路 |
US5305392A (en) * | 1993-01-11 | 1994-04-19 | Philip Morris Incorporated | High speed, high resolution web inspection system |
US5475768A (en) * | 1993-04-29 | 1995-12-12 | Canon Inc. | High accuracy optical character recognition using neural networks with centroid dithering |
-
1993
- 1993-04-29 US US08/055,523 patent/US5475768A/en not_active Expired - Fee Related
-
1994
- 1994-04-28 JP JP6092540A patent/JPH0773329A/ja not_active Withdrawn
- 1994-04-28 DE DE69422446T patent/DE69422446T2/de not_active Expired - Fee Related
- 1994-04-28 EP EP94303081A patent/EP0622750B1/de not_active Expired - Lifetime
-
1995
- 1995-05-22 US US08/445,470 patent/US5625707A/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018100238A1 (de) * | 2018-01-08 | 2019-07-11 | Connaught Electronics Ltd. | Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks |
DE102018100315A1 (de) * | 2018-01-09 | 2019-07-11 | Connaught Electronics Ltd. | Erzeugen von Eingabedaten für ein konvolutionelles neuronales Netzwerk |
Also Published As
Publication number | Publication date |
---|---|
EP0622750A2 (de) | 1994-11-02 |
DE69422446D1 (de) | 2000-02-10 |
US5625707A (en) | 1997-04-29 |
EP0622750B1 (de) | 2000-01-05 |
US5475768A (en) | 1995-12-12 |
EP0622750A3 (de) | 1995-04-26 |
JPH0773329A (ja) | 1995-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69422446T2 (de) | Mustererkennung | |
DE69308905T2 (de) | Verarbeiten von mit Punktmatrix- oder Tintenstrahlkopf gedrucktem Text für optische Zeichenerkennung | |
DE69426479T2 (de) | Optische Mehrfontzeichenerkennung mit einem Verbindungsschachtelansatz | |
DE69604481T2 (de) | Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern | |
DE69427567T2 (de) | Verfahren zum Auffinden eines Histogrammbereichs von Interesse für die verbesserte Grauskalenwiedergabe von Röntgenbildern | |
DE69610689T2 (de) | System zum Klassifizieren von Fingerabdrücken | |
DE60130742T2 (de) | Mustererkennung mit hierarchischen Netzen | |
Alginahi | Preprocessing techniques in character recognition | |
DE69226846T2 (de) | Verfahren zur Bestimmung von Wortgrenzen im Text | |
DE69222141T2 (de) | Verfahren und Gerät zur Erkennung von sich berührendem und degradiertem Text | |
DE69428089T2 (de) | Gerät und Verfahren zur Bildanalyse | |
DE69329380T2 (de) | Verfahren zum Segmentieren von Bildern und Klassifizieren von Bildelementen zur Dokumentverarbeitung | |
DE4445386C1 (de) | Verfahren und Vorrichtung zur Trennung einer Vordergrundinformation von einer Hintergrundinformation in einer Vorlage | |
DE69230629T2 (de) | Verfahren und Vorrichtung zur Bildverbesserung | |
DE102007035884B4 (de) | Linienrauschunterdrückungsvorrichtung, -verfahren und -programm | |
DE69521184T2 (de) | Gerät zur Bildverarbeitung gemäss einem lokal ermittelten Bildregionentyp | |
DE102007050568A1 (de) | Verfahren und Einrichtung zur Objekterkennung in einem Bild | |
DE69925354T2 (de) | Bildverarbeitungssystem um vertikale Muster auf abgetasteten Bildern zu reduzieren | |
DE69232229T2 (de) | Vorrichtung und Verfahren zur Mustererkennung | |
DE69423607T2 (de) | Verfahren zum klassifizieren von bildern mit ausgabeabbildungen | |
DE102017220752A1 (de) | Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm | |
DE69130535T2 (de) | Schriftzeichenerkennungsverfahren und -vorrichtung zur lokalisierung und ermittlung vorbestimmter daten eines dokumentes | |
DE69230940T2 (de) | Verfahren zum Ableiten der Merkmale von Zeichen in einem Zeichenerkennungssystem | |
DE69529015T2 (de) | Schnelligkeits- und Erkennungsverbesserung für OCR mittels normalisierter Höhen-/Breitenposition | |
DE69324977T2 (de) | Bitmap-bildsegmentierung unter anwendung eines ladungsmodells fuer pixels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |