[go: up one dir, main page]

DE69429847T2 - Bildverarbeitungsgerät und Verfahren zur Erkennung eines eingegebenen Bildes und Fotokopierer, der dasselbe einschliesst - Google Patents

Bildverarbeitungsgerät und Verfahren zur Erkennung eines eingegebenen Bildes und Fotokopierer, der dasselbe einschliesst

Info

Publication number
DE69429847T2
DE69429847T2 DE69429847T DE69429847T DE69429847T2 DE 69429847 T2 DE69429847 T2 DE 69429847T2 DE 69429847 T DE69429847 T DE 69429847T DE 69429847 T DE69429847 T DE 69429847T DE 69429847 T2 DE69429847 T2 DE 69429847T2
Authority
DE
Germany
Prior art keywords
pattern
image
input image
specified
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69429847T
Other languages
English (en)
Other versions
DE69429847D1 (de
Inventor
Tooru Fujii
Tomohiko Hayakawa
Kouichi Oomae
Shinya Sonoda
Yoshinori Yamaguchi
Genki Yotsui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP5281821A external-priority patent/JP3057981B2/ja
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE69429847D1 publication Critical patent/DE69429847D1/de
Application granted granted Critical
Publication of DE69429847T2 publication Critical patent/DE69429847T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

  • Diese Erfindung betrifft eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren und insbesondere eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren zum Verhindern des Fälschens von Banknoten, verkäuflichen Wertpapieren und dergleichen. Die Erfindung betrifft auch einen Kopierer mit einer solchen Bildverarbeitungsvorrichtung und einem solchen Bildverarbeitungsverfahren.
  • Die Entwicklung in den letzten Jahren von Kopiergeräten wie z. B. Vollfarbkopierern hat die Reproduktionsqualität auf ein Niveau verbessert, auf dem man mit bloßem Auge die Kopie nicht vom Original unterscheiden kann. Solche getreuen Reproduktionen können nun kostengünstig erhalten werden. Wir müssen jedoch in Betracht ziehen, daß zusammen mit diesem Vorteil das erhöhte Risiko aufkommt, daß Kopierer derart illegal verwendet werden, wie zum Fälschen von Geld, verkäuflichen Wertpapieren und anderen Originaldokumenten, deren Reproduktion gesetzlich verboten ist. Um diese Gefahr abzuwenden, wurden verschiedene Vorrichtungen entwickelt, um zu verhindern, daß Kopierer zum Fälschen verwendet werden. Eine solche Vorrichtung ist die Bildverarbeitungsvorrichtung, die in EP-A-0382549 offenbart ist.
  • Diese Bildverarbeitungsvorrichtung liest das auf das Glas des Kopierers gelegte Originalbild durch viermaliges Abtasten des gesamten Originals. Sie wird in digitalen Vollfarbkopiergeräten verwendet. Wir wollen annehmen, daß eine Banknote in das Kopiergerät eingelegt wurde. Bei der ersten Abtastung erkennt die Vorrichtung den ungefähren Ort des Wasserzeichens, das Papiergeld, den Gegenstand, an dessen Kopieren das Gerät gehindert werden soll, identifiziert, unter der Annahme, daß das Dokument auf dem Glas tatsächlich eine Banknote ist. Bei der zweiten Abtastung erkennt die Vorrichtung die exakte Position des Geldscheins und den Winkel, in dem er angeordnet ist, d. h. die exakten Positionskoordinaten des Geldscheins auf dem Glas. Bei der dritten Abtastung berechnet die Vorrichtung die Positionskoordinaten des auf den Geldschein aufgeprägten roten Siegels aus der bei der zweiten Abtastung erhaltenen exakten Position des Geldscheins. Auf der Basis dieser Positionskoordinaten gewinnt sie ein Bild aus dem Bereich, in dem das Siegel angeordnet ist, und sie führt eine Beurteilung hinsichtlich dessen durch, ob tatsächlich ein rotes Siegel auf diesem Gegenstand vorhanden ist. Durch mehrmaliges Abtasten des Gegenstandes kann die Vorrichtung feststellen, ob das in den Kopierer eingelegte Dokument eines ist, dessen Kopieren illegal wäre, oder nicht. Wenn die Vorrichtung feststellt, daß ein verbotenes Dokument wie z. B. eine Banknote zum Kopieren eingelegt wurde, führt sie bei der vierten Abtastung ihre festgelegten Antifälschungsvorgänge aus, wie z. B. Veranlassen, daß die gesamte Anzeige schwarz wird, und Verhindern, daß der Kopierer arbeitet.
  • In EP-A-0136718 ist ein Verfahren zum Identifizieren eines Musters, das nach Verringern der Auflösung des Bildes gesucht wird, und zum Suchen nach Übereinstimmungen auf dem verringerten Niveau offenbart. In JP-A-02165395 ist ein erster Versuch zum Verwenden einer unscharfen Logik zum Bezugszeichenvergleich offenbart.
  • Angesichts der vorstehend erörterten Schwierigkeiten besteht eine Aufgabe dieser Erfindung darin, eine Bildverarbeitungsvorrichtung bereitzustellen, die in der Lage ist, eine Banknote oder ein anderes verbotenes Dokument durch nur einmaliges Abtasten desselben zu erkennen; die keine große Speicherkapazität benötigt; die in der Lage ist, in Echtzeit eine Hochgeschwindigkeitsverarbeitung durchzuführen; und die mit geringen Kosten hergestellt werden kann. Eine weitere Aufgabe dieser Erfindung ist die Bereitstellung eines Kopierers mit einer solchen Bildverarbeitungsvorrichtung.
  • Um die vorstehend umrissenen Aufgaben zu lösen, ist die Bildverarbeitungsvorrichtung nach Anspruch 1 mit einer Vorrichtung zum Erkennen eines Musters, das einem festgelegten Musters ähnelt, innerhalb Bilddaten, die sie empfangen hat; einer Vorrichtung zum Gewinnen dieses Musters, das einmal erkannt wurde, aus den Bilddaten; und einer Vorrichtung zum Berechnen des Ähnlichkeitsgrades zwischen dem gewonnenen Muster und einem Bezugsmuster, das im voraus festgesetzt wurde, versehen.
  • Die Vorrichtung zum Erkennen eines Musters weist die Fähigkeit auf, ein abgestuftes Muster mit dem Bezugsmuster, das im voraus festgesetzt wurde, zu vergleichen. Die Vorrichtung zum Erkennen eines Musters kann eine Vorrichtung zum Vergleichen eines abgestuften Musters mit dem Bezugsmuster, das im voraus festgesetzt wurde, und eine Vorrichtung zum Auswählen eines Musters umfassen. Diese letztere Vorrichtung gibt an eine zweite Mustergewinnungsvorrichtung die Ergebnisse des von der Vergleichsvorrichtung durchgeführten Vergleichsprozesses aus. Diese Ergebnisse umfassen die räumlichen Beziehungen zwischen den von der Vergleichsvorrichtung erkannten Mustern.
  • Die Vorrichtung zum Gewinnen eines Musters aus den Bilddaten ist in der Lage, bestimmte festgelegte Orte in dem Muster, das erkannt wurde, zu erkennen, wie z. B. die Spitze einer Ecke oder die Mitte eines Kreises. Die Vorrichtung zum Berechnen des Ähnlichkeitsgrades weist eine Anzahl von Punkten von unscharfem Wissen auf, deren Erzeugung auf jedem der Bezugsmuster basierte, die im voraus festgesetzt wurden. Die Berechnungsvorrichtung zieht unter Verwendung des relevanten unscharfen Wissens unscharfe Rückschlüsse.
  • Die Vorrichtung zum Erkennen eines Musters, die Vorrichtung zum Gewinnen eines Musters und die Vorrichtung zum Berechnen des Ähnlichkeitsgrades verwenden alle ein Oberflächensequenzschema, um jeden Datensatz, der für jede Farbkomponente empfangen wird, zu verarbeiten. Die Bildverarbeitungsvorrichtung nach Anspruch 1 weist auch eine Vorrichtung zum Auswählen von jenen als erkannte Muster, von denen die Berechnungsvorrichtung festgestellt hat, daß sie eine hohe Ähnlichkeit zum Bezug aufweisen, und zum Speichern von Positionsdaten hinsichtlich dieser erkannten Muster in der Speichereinheit; und eine Vorrichtung zum Beurteilen, ob sich jedes der erkannten Muster in der korrekten räumlichen Beziehung zu den anderen befindet oder nicht, auf der Basis der Positionsdaten für die erkannten Muster, die aus jedem Datensatz für jede Farbkomponente gewonnen und gespeichert werden, auf. In dieser Weise kann die Vorrichtung beurteilen, ob die während der Verarbeitung erhaltenen Bilddaten das zu erkennende festgelegte Muster enthalten oder nicht.
  • Die Vorrichtung zum Berechnen des Ähnlichkeitsgrades weist eine Anzahl von Bezugsmustern auf, die festgelegten Mustern entsprechen, die an verschiedenen Orten unter den Bilddaten gefunden werden, aus denen ein einzelnes Muster erkannt werden soll. Die Bildverarbeitungsvorrichtung erhält den Ähnlichkeitsgrad der Bezugsmuster zu dem durch die Gewinnungsvorrichtung gewonnenen Muster. Sie markiert irgendein Muster, dessen Ähnlichkeitsgrad zum Bezugsmuster einen gegebenen Bezugswert übersteigt, als erkanntes Muster. Auf der Basis der räumlichen Beziehung unter den verschiedenen erkannten Mustern, die erkannt wurden, fällt sie eine Beurteilung hinsichtlich dessen, ob die verarbeiteten Bilddaten jene des zu erkennenden Musters sind oder nicht.
  • Das Bildverarbeitungssystem arbeitet im allgemeinen folgendermaßen. Das System erzeugt ein abgestuftes Bild mit einer geringeren Auflösung als das Bild, für das es Daten empfangen hat. Es führt eine grobe Durchsuche dieses abgestuften Bildes durch und versucht, es mit einem Bezugsmuster zu vergleichen. In dieser Weise erkennt es Muster, die mögliche Übereinstimmungen für das festgelegte Muster sind, das erkannt werden soll. Es überträgt dann die Bilddaten hinsichtlich dieser möglichen Übereinstimmungen zu einer Speichereinheit. Schließlich fällt es eine Beurteilung hinsichtlich dessen, ob jede mögliche Übereinstimmung, die erkannt wurde, das Muster, das festgelegt wurde, ist oder nicht. Diese Beurteilung basiert auf den Daten, die in der Speichereinheit gespeichert sind, unabhängig von den Bilddaten, die vorher ausgelesen wurden, und auf den Ergebnissen der groben Suche.
  • Das System zum Kopieren nach Anspruch 5 ist mit irgendeiner der vorstehend offenbarten Bildverarbeitungsvorrichtungen ausgestattet. Die von einer Dokumentlesevorrichtung im Kopierer ausgegebenen Bilddaten werden in paralleler Weise sowohl in die Bildverarbeitungsvorrichtung als auch in einen Farbsignalwandler eingegeben. Die Bildverarbeitungsvorrichtung fällt eine Beurteilung hinsichtlich dessen, ob der kopierte Gegenstand ein Gegenstand ist, der im voraus festgelegt wurde, wie z. B. eine Banknote, oder nicht. Wenn der Gegenstand einer ist, der im voraus festgelegt wurde, wird ein Steuersignal zu einer festgelegten Verarbeitungsvorrichtung im Kopierer gesandt, um zu verhindern, daß der Kopiervorgang fortschreitet.
  • Als Reaktion auf die Bilddaten, die sie empfängt, erzeugt die Vorrichtung zum Erkennen eines festgelegten Musters ein abgestuftes Bild des Musters, das sie erkennen soll, mit einer niedrigeren Auflösung. Sie führt eine grobe Durchsuche der Bilddaten durch und versucht, irgendwelche Muster, die sie findet, mit dem abgestuften Bild zu vergleichen. In dieser Weise erkennt sie Muster, die mögliche Übereinstimmungen für die festgelegten Muster, die erkannt werden sollen, sind. Sie überträgt dann die Bilddaten hinsichtlich dieser möglichen Übereinstimmungen zur Vorrichtung zum Gewinnen eines festgelegten Musters und speichert sie. Auf der Basis dieser gespeicherten Bilddaten gewinnt die Vorrichtung zum Gewinnen eines festgelegten Musters ein Bild von einem festgelegten Bereich unabhängig von der während der groben Durchsuche durchgeführten Verarbeitung und sie überträgt dieses Bild zu einer zweiten Vorrichtung zum Vergleichen des festgelegten Musters. Diese zweite Vorrichtung versucht, dieses Muster zu vergleichen, und fällt eine Beurteilung hinsichtlich dessen, ob jede mögliche Übereinstimmung, die erkannt wurde, ein Muster, das festgelegt wurde, ist oder nicht. Da die Erkennungsvorrichtung die groben Kandidaten für Übereinstimmungen gewinnt, muß nur eine relativ kleine Anzahl von Vergleichsoperationen durchgeführt werden, bevor der letzte Mustervergleichsprozeß durchgeführt wird. Und selbst wenn die Bilddaten einzeln zur Erkennungsvorrichtung gesandt werden, kann der Erkennungsprozeß ohne Bezug auf den Zustand der nachfolgenden Verarbeitung durchgeführt werden, d. h. ohne Warten auf die Ergebnisse dieser Verarbeitung, da die Daten hinsichtlich der möglichen Kandidaten für eine Übereinstimmung vorübergehend in der Vorrichtung zum Gewinnen von Daten gespeichert wurden. Dies ermöglicht, daß die Verarbeitung in Echtzeit und mit hoher Geschwindigkeit durchgeführt wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Fig. 1 ist ein Blockdiagramm der Gesamtanordnung eines Ausführungsbeispiels der Bildverarbeitungsvorrichtung dieser Erfindung;
  • Fig. 2 ist ein Blockdiagramm der inneren Struktur der Vorrichtung zum Erkennen eines festgelegten Musters (der Erkennungsvorrichtung);
  • Fig. 3 ist ein Blockdiagramm der inneren Struktur der Vorrichtung zum Durchführen der Mittelwertbildungsoperation;
  • Fig. 4 ist ein Blockdiagramm der inneren Struktur der Flip-Flop-Gruppen in der Erkennungsvorrichtung;
  • Fig. 5 ist ein Blockdiagramm der inneren Struktur der Decodierschaltung in der Erkennungsvorrichtung;
  • Fig. 6 ist ein Diagramm der Maske, die von der Sucheinheit verwendet wird, welche nach Ecken sucht;
  • Fig. 7 ist ein Ablaufplan, der die Arbeitsvorgänge der Sucheinheit, die nach Ecken sucht, darstellt;
  • Fig. 8 ist ein Diagramm, das den Grundring darstellt, der von der Sucheinheit, die nach Markierungen sucht, verwendet wird;
  • Fig. 9(A)-9(B) sind Diagramme, die darstellen, wie die Vorbeurteilungseinheit arbeitet;
  • Fig. 10 ist ein Blockdiagramm der inneren Struktur der Vorrichtung zum Gewinnen eines festgelegten Musters und der Vorrichtung zum Vergleichen desselben mit einem Bezugsmuster;
  • Fig. 11 ist ein Diagramm, das darstellt, wie die Eckenerkennung in der Positionserkennungseinheit funktioniert;
  • Fig. 12 ist ein Ablaufplan, der die Funktion der Eckenerkennung in der Positionserkennungseinheit darstellt;
  • Fig. 13 ist ein Diagramm, das darstellt, wie die Markierungserkennung in der Positionserkennungseinheit funktioniert;
  • Fig. 14 ist ein Ablaufplan, der die Funktion der Markierungserkennung in der Positionserkennungseinheit darstellt;
  • Fig. 15 ist ein Ablaufplan, der darstellt, wie die Vorrichtung zum Vergleichen eines festgelegten Musters mit einem Bezugsmuster arbeitet;
  • Fig. 16(A)-16(B) sind Diagramme, die darstellen, wie die Vorrichtung zum Vergleichen eines festgelegten Musters mit einem Bezugsmuster arbeitet;
  • Fig. 17 sind Diagramme, die Beispiele von Regeln und Mitgliedfunktionen darstellen, die in den Regel- und MF- Speichern in der Vorrichtung zum Vergleichen eines festgelegten Musters mit einem Bezugsmuster gespeichert sind;
  • Fig. 18(A)-18(B) sind Diagramme, die die automatische Erzeugung von unscharfem Wissen, das von der Vergleichsvorrichtung verwendet werden soll, darstellen;
  • Fig. 19 ist eine aufgeschnittene Seitenansicht eines Beispiels eines erfindungsgemäßen Kopiergeräts;
  • Fig. 20 ist ein Blockdiagramm eines Beispiels eines erfindungsgemäßen Kopiergeräts;
  • Fig. 21 ist ein Blockdiagramm der inneren Struktur der Vorrichtung zum Gewinnen eines festgelegten Musters und der Vorrichtung zum Vergleichen desselben mit einem Bezugsmuster bei einem weiteren Ausführungsbeispiel der Bildverarbeitungsvorrichtung dieser Erfindung;
  • Fig. 22(A)-22(C) sind Diagramme, die darstellen, wie die Vorrichtung arbeitet;
  • Fig. 23 ist ein Diagramm, das darstellt, wie Daten im Speicher, der Rückschlußergebnisse speichert, in der Vorrichtung organisiert sind;
  • Fig. 24 ist ein Ablaufplan, der die von der CPU in der Vorrichtung durchgeführte Beurteilungsverarbeitung darstellt;
  • Fig. 25 ist ein weiterer Ablaufplan der von der CPU in der Vorrichtung durchgeführten Beurteilungsverarbeitung;
  • Fig. 26 ist ein Diagramm, das darstellt, wie die Vorrichtung arbeitet;
  • Fig. 27 ist ein Ablaufplan, der die von der Steuer-CPU durchgeführte Beurteilungsverarbeitung eines dritten Ausführungsbeispiels der Bildverarbeitungsvorrichtung dieser Erfindung darstellt;
  • Fig. 28(A)-28(C) sind Diagramme, die darstellen, wie die Vorrichtung arbeitet;
  • Fig. 29 ist ein weiteres Diagramm, das darstellt, wie die Vorrichtung arbeitet;
  • Fig. 30 ist ein Diagramm, das eine Modifikation der Bildverarbeitungsvorrichtung dieser Erfindung zeigt;
  • Fig. 31 ist ein Diagramm, das eine weitere Modifikation der Bildverarbeitungsvorrichtung dieser Erfindung zeigt;
  • Fig. 32 ist ein Diagramm, das noch eine weitere Modifikation der Bildverarbeitungsvorrichtung dieser Erfindung zeigt;
  • Fig. 33 ist ein Ablaufplan, der die von der Steuer-CPU in der Modifikation durchgeführte Beurteilungsverarbeitung darstellt; und
  • Fig. 34 ist ein Ablaufplan, der die von der Steuer-CPU in einer weiteren Modifikation der Vorrichtung durchgeführte Beurteilungsverarbeitung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Wir werden als nächstes mit Bezug auf die beigefügten Zeichnungen eine detaillierte Erläuterung eines ersten Ausführungsbeispiels der Bildverarbeitungsvorrichtung und des Systems und des Kopierers, in dem diese verwendet werden, die gemäß dieser Erfindung konstruiert sind, geben. Die Verarbeitungsvorrichtung in diesem Beispiel ist in einem Vollfarbkopiergerät installiert. Sie ist dazu ausgelegt, Papiergeld zu erkennen, wenn jemand versucht, dieses zu kopieren, und zu verhindern, daß der Kopierprozeß zur Vollendung fortschreitet. Wie in Fig. 1 gezeigt, werden die vom Bildsensor des Kopierers gelesenen Bilddaten zuerst in die Vorrichtung 1 eingegeben, deren Zweck darin besteht, ein festgelegtes Muster zu erkennen. Wenn diese Bilddaten von einem Bildsensor wie z. B. einem CCD abgetastet werden, werden sie nacheinander, Bereich für Bereich, zur Vorrichtung 1 übertragen. Die tatsächlichen Daten, die gesandt werden, sind Vollfarbdaten für jede der roten (R), grünen (G) und blauen (B) Komponenten mit einer Auflösung von 400 DPI (Bildpunkte pro Zoll).
  • Die Erkennungsvorrichtung 1 komprimiert die Bilddaten, die sie empfangen hat, um ein abgestuftes Bild zu erzeugen. Unter Verwendung von Masken mit festgelegten Größen prüft sie den Bereich dieses Bildes auf Muster, die mögliche Übereinstimmungen mit jedem festgelegten Muster sind, das erkannt werden soll, z. B. einer Markierung, einer Figur usw. Wenn sie einen möglichen Kandidaten erkennt, legt sie grob eine Bezugsposition, z. B. das Zentrum für einen Kreis, die Spitze einer Ecke für ein Rechteck, usw., für diesen fest und überträgt die relevanten Daten zur Vorrichtung 2, der Vorrichtung zum Gewinnen eines festgelegten Musters.
  • Die Gewinnungsvorrichtung 2 erkennt diese Bezugspositionen genauer auf der Basis der Bilddaten, bevor sie komprimiert wurden. Diese Daten umfassen die potentiellen Übereinstimmungen, die während der groben Suche erkannt wurden. Die Vorrichtung 2 erzeugt auch Muster, die zum Vergleich beim Mustervergleichsprozeß, der später durchgeführt werden soll, verwendet werden sollen. Potentielle Übereinstimmungen werden vorübergehend in einem festgelegten Speicherbereich in der Vorrichtung 2 gespeichert. Die Gewinnungsvorrichtung 2 führt eine Vorbeurteilung hinsichtlich dessen, ob die gewonnenen Muster jedem zu erkennenden festgelegten Muster ähneln, auf der Basis des detaillierten, nicht-komprimierten Bildes durch. Wenn sie ein Muster findet, das zu einem festgelegten Muster ähnlich ist, gewinnt sie den Teil von diesem, der die Bezugsposition umgibt, und überträgt diesen Teil zur Vorrichtung 3, wo es mit dem zu erkennenden festgelegten Muster verglichen wird.
  • Die Vorrichtung 3 verwendet eine unscharfe Mustervergleichslogik, um den Übereinstimmungsgrad zwischen jedem gewonnenen Muster und seinem Bezugsmuster, d. h. dem zu erkennenden festgelegten Muster, zu ermitteln, und sie beurteilt, ob dieses Muster tatsächlich dasjenige ist, das gesucht wurde. Wenn es dies ist, gibt die Vorrichtung 3 ein festgelegtes Steuersignal aus.
  • Bei diesem Beispiel wird dann eine grobe Durchsuche der Daten, die vom Kopierer in seiner normalen Weise gelesen werden, durchgeführt. Bei dieser groben Durchsuche werden die abgestuften Daten einzeln mit einem Muster verglichen, das aus dem Bezugsmuster synthetisiert wurde, und potentielle Kandidaten für eine Übereinstimmung werden gewonnen. Die Daten hinsichtlich dieser potentiellen Übereinstimmungen werden in einem Speicherbereich gespeichert und sie werden mit dem Bezugsmuster durch unscharfe Rückschlüsse verglichen, wenn die festgelegte Verarbeitungssequenz vollendet wurde. Jede potentielle Übereinstimmung wird hinsichtlich dessen beurteilt, ob es sich tatsächlich um das gesuchte Muster handelt. Die Vergleichsvorrichtung 3 verwendet für Vergleichszwecke ein detailliertes Bild, das sich dem Originalbild nähert. Bevor ein Versuch unternommen wird, Kandidaten mit diesem detaillierten Bild zu vergleichen, wurde ihre Anzahl durch Durchführen einer groben Suche mit hoher Geschwindigkeit verringert. Es sollte erkannt werden, daß Kandidaten schnell und sorgfältig bewertet werden können, wenn Beurteilungen auf abgestuften Bilddaten basieren. Die gesamte Verarbeitung wird in Echtzeit mit hoher Geschwindigkeit durchgeführt. Es besteht kein Bedarf, einen Prozeß vorübergehend zu unterbrechen, während ein anderer ausgeführt wird. Das Bild kann beispielsweise weiter gelesen werden oder eine grobe Suche kann durchgeführt werden, während Beurteilungen verarbeitet werden.
  • In diesem Abschnitt werden wir beispielhafte Anordnungen jeder vorstehend angeführten Vorrichtung erörtern. Die Vorrichtung 1, die ein festgelegtes Muster erkennt, ist in Fig. 2 als Blockdiagramm dargestellt. Hier sehen wir, daß die Bilddaten zu einer Mittelwertbildungseinheit 10 gesandt werden, in der eine festgelegte Anzahl von benachbarten Pixeln in den relevanten Daten kombiniert werden, um größere Einheiten zu bilden. Die Dichte der Pixel in jeder Einheit wird gemittelt, um ein abgestuftes Bild zu erzeugen, das sozusagen aus etwas größeren Pixeln besteht.
  • Die Mittelwertbildungseinheit 10 kann beispielsweise die in dem Blockdiagramm in Fig. 3 gezeigten Komponenten umfassen. Jedes Ausgangssignal aus den Zwischenspeichern 11a bis 11d, die in vier Stufen verbunden sind, die nacheinander Daten ausgeben, die durch einen Schiebetakt synchronisiert werden, wird in den Addierer 12a eingegeben. Jedes Pixel in jeder Zeile der Bilddaten wird in fortlaufender Reihenfolge in den Zwischenspeicher 11a eingegeben. Jedes Pixel wird als mehrwertige Daten dargestellt, die seine Dichte (oder Abstufung oder Helligkeit) ausdrücken. Somit wird in jedem der Zwischenspeicher 11a bis 11d eine festgelegte Anzahl von Bits gesetzt, die diesen mehrwertigen Daten entsprechen.
  • Der erste Addierer 12a addiert die vier Werte, die die Dichten der Pixel darstellen, die in den Zwischenspeichern 11a bis 11d gespeichert sind, welche die letzten vier Pixel sind, die eingegeben werden sollten, d. h. die letzten vier Pixel auf dem Weg, der abgetastet wird, und überträgt das Ergebnis zum zweiten Addierer 12b über einen seiner Eingangsanschlüsse. Die Summe der Dichten von festgelegten Pixeln in den letzten drei Zeilen, die im Zeilenspeicher 13 (Fig. 2) gespeichert wurden, wird in den anderen Eingangsanschluß des Addierers 12b über die UND-Schaltung 14 eingegeben. Das Ergebnis der vom Addierer 12b durchgeführten Addition wird sowohl zum Zeilenspeicher 13 als auch zum Dividierer 15 gesandt.
  • Das Ausgangssignal des Addierers 12b wird jedesmal, wenn vier Pixel addiert wurden, als Reaktion auf ein Steuersignal, das im Diagramm nicht dargestellt ist, in den Zeilenspeicher 13 geschrieben. Mit anderen Worten, das erste bis vierte Pixel in der Zeile, die verarbeitet wird, werden gleichzeitig in den Addierer 12a eingegeben. Auf der Basis des Ergebnisses der vom Addierer 12a durchgeführten Addition wird vom Addierer 12b eine weitere Addition durchgeführt, nach der das erste Einschreiben von Daten in den Zeilenspeicher 13 durchgeführt wird. Wenn das fünfte bis achte Pixel addiert wurden, wird das Ergebnis beim zweiten Einschreiben in den Speicher 13 eingegeben. Diese Prozedur wird wiederholt durchgeführt. In dieser Weise wird das Ergebnis der Addition von jeweils vier Pixeln in der Zeile 1 in der Reihenfolge im Zeilenspeicher 13 gespeichert.
  • Wenn die Zeile 2 verarbeitet wird, wird das Ergebnis der Addition von jeweils vier Pixeln aus den Zwischenspeichern 11a bis 11d und dem Addierer 12a genau wie bei der Zeile 1 erhalten. Gleichzeitig werden jedoch vorherige Additionsergebnisse, die im Zeilenspeicher 13 gespeichert wurden, ausgelesen und der Addierer 12b addiert die Ergebnisse, die durch Addieren von jeweils vier Pixeln in der Zeile 2 erhalten werden, zu den entsprechenden Ergebnissen für jeweils vier Pixel in der Zeile 1. In dieser Weise werden die Dichten von acht Pixeln, von denen vier zu den anderen vier in jeder von zwei Zeilen benachbart sind, zusammenaddiert. Das Ergebnis dieser Addition wird im Zeilenspeicher 13 gespeichert.
  • Wenn die Zeile 3 (oder Zeile 4) verarbeitet wird, werden die Gesamtsummen der Dichten von bestimmten Pixeln in den Zeilen 1 und 2 (oder Zeilen 1 bis 3), die durch die Addition erhalten wurden, die während der Verarbeitung der vorherigen Zeilen durchgeführt wurde, und im Zeilenspeicher 13 gespeichert wurden, zu den entsprechenden Dichten in der aktuellen Zeile addiert. Wenn die Zeile 4 verarbeitet wird, wird das Ergebnis der Addition, die vom Addierer 12b durchgeführt wird, d. h. die Gesamtsumme der Dichten von 4 · 4 oder 16 Pixeln, zum Dividierer 15 gesandt, wo sie durch 16 dividiert wird, um einen Mittelwert zu erhalten. Das Steuersignal, das in die UND-Schaltung 15 eingegeben wird, schaltet auf Null, sobald die Zeile 4 verarbeitet wurde. Das Auslesen von Daten aus dem Zeilenspeicher 13 wird verboten, der aufsummierte Wert wird zurückgesetzt, und die im Zeilenspeicher 13 gespeicherten Daten werden gelöscht.
  • Es wird in Erwägung gezogen, daß durch Erhöhen oder Verringern der Anzahl von Zwischenspeichern es möglich ist, die Anzahl von Pixeln, deren Dichte gemittelt wird, zu erhöhen oder zu verringern. Das Erhöhen der Anzahl von Zwischenspeichern erzeugt ein Bild mit niedrigerer Auflösung. Durch Verändern der Anzahl von Zwischenspeichern und Wählen einer geeigneten Zeitsteuerung für die Eingabe des Steuersignals in das UND-Element 14 können wir eine mittlere Dichte für N · M Pixel erhalten. Welche Bedingungen geeignet sind, hängt von dem zu vergleichenden (oder zu erkennenden) Bild ab.
  • Die mittlere Dichte von jeweils sechzehn Pixeln wird verwendet, um ein Bild zu konstruieren, das aus neuen, größeren Pixeleinheiten besteht. Die Daten hinsichtlich dieses neuen Bildes werden zum Binärprozessor 16 gesandt, wo sie bei einer gewissen Schwellendichte in Binärwerte umgewandelt werden. Das resultierende Binärbild wird vorübergehend im Mehrzeilenspeicher 17 gespeichert. Dieses erzeugte Bild ist unschärfer als das Originalbild. Die Details der Originalmuster im Bild sind verlorengegangen und nur grobe Formen können wahrgenommen werden. Durch Festlegen einer geeigneten Schwelle für die Binärumwandlung können wir ein Bild erzeugen, in dem das Innere eines gegebenen Musters, wie z. B. die Ecke oder eine der Markierungen auf einer Banknote (oder die Seite des Geldscheins), vollständig schwarz erscheinen, während der Hintergrund vollständig weiß ist. Selbst wenn ein Überdeckungsfehler oder ein anderer Druckfehler im ausgelesenen und eingegebenen Originalbild zu einer geringfügigen Diskrepanz zwischen dem festgelegten Muster, das gespeichert ist, und dem Muster, das geprüft wird, führt, verschwindet die Diskrepanz, wenn das Bild abgestuft wird. Dieses Schema ermöglicht, daß das Bild einfach und schnell erkannt wird.
  • Das Ausgangssignal aus dem Binärprozessor 16 wird zur Sucheinheit 18 gesandt, wo das abgestufte Bild mit niedriger Auflösung (eigentlich die Binärdaten) nach einem Muster mit einer gegebenen Form durchsucht wird. Das heißt, eine Suche nach einem festgelegten Muster in einem Bereich mit einer gegebenen Größe wie z. B. einer Maske mit den Abmessungen N · N wird durchgeführt. Diese Suche wird nachstehend erläutert.
  • Die in Fig. 2 dargestellte Sucheinheit 18 umfaßt eine Flip-Flop-Gruppe 18a; eine Schaltung 18b, die das Ausgangssignal aus der Flip-Flop-Gruppe 18a empfängt, die Punktkoordinaten der Treffer erhält, die die Positionen von Mustern angeben, die mögliche Übereinstimmungen darstellen, und diese Koordinaten ausgibt; eine Decodierschaltung 18c, die die Orientierungen und andere Merkmale der Muster festlegt; und einen Zeilenspeicher 18d, in dem die Daten, die erkannte Muster darstellen, die mögliche Übereinstimmungen sind, gespeichert werden.
  • Eine Beispielanordnung der Flip-Flop-Gruppe 18a ist in Fig. 4 gezeigt. Bei diesem Beispiel besteht die verarbeitete Fläche aus 3 Pixeln Abtastung · 3 Pixeln Vorschub oder 9 (3 · 3) Flip-Flops FF. Die drei Pixel W10, W11 und W12, die in der Zeile in der Vorschuborientierung liegen, werden aus den Bilddaten, die im Zeilenspeicher 17 gespeichert sind, entnommen, durch den Schiebetakt SCLK synchronisiert und in die erste Spalte von Flip-Flops F00, F10 und F20 eingegeben. Neue Pixeldaten werden in W10, W11 und W12 nacheinander gemäß der Zeitsteuerung, die vom Schiebetakt vorgesehen wird, eingegeben und die Daten werden zur nächsten Spalte von Flip-Flops übertragen. Die Pixeldaten, die für das Binärbild eingegeben wurden, Q00, Q01, Q02, Q10, Q11, Q12, Q20, Q21 und Q22, werden über den Ausgangsanschluß Q an jedem Flip-Flop ausgegeben. Für ein schwarzes Pixel ist das Ausgangssignal des Flip-Flops "1".
  • Wenn alle Abtastdaten bis zum Ende einer Zeile eingegeben wurden, verschiebt die Vorrichtung um eine Zeile in der Vorschubrichtung nach unten und gibt Daten ab dem Anfang dieser Zeile ein. Somit ist das Abtasten der Fläche von 3 · 3 Pixeln (der Maske), welche der Bereich der Suche ist, äquivalent zum Bewegen über die Oberfläche des Dokuments.
  • Jedes der Ausgangssignale Q00, Q01, Q02, Q10, Q11, Q12, Q20, Q21 und Q22 wird in die Decodierschaltung 18c eingegeben. Ein Beispiel der Decodierschaltung 18c ist in Fig. 5 dargestellt. Wenn das Muster von 3 · 3 Pixeln, das durch die Flip-Flop-Gruppe 18a ausgegeben wird, eines der acht Muster (Treffer (HIT) 0 bis Treffer (HIT) 7) ist, schaltet das Ausgangssignal des entsprechenden UND-Elements auf einen hohen Pegel. Wenn das Ausgangssignal aus der Decodierschaltung 18c für HIT 0 auf einen hohen Pegel schaltet, wissen wir, daß eine dunkle Fläche in der oberen linken Ecke des Gitters, das um den Flip-Flop FF11 zentriert ist, vorhanden ist. Wenn das Ausgangssignal für HIT 4 auf einen hohen Pegel schaltet, wissen wir, daß eine dunkle Fläche, die den oberen Teil des Gitters bedeckt, welches um den Flip-Flop FF11 zentriert ist, vorhanden ist. Bei diesem Beispiel ist der Gegenstand der Suche eine Ecke. Daher werden andere Muster als diese acht, wie z. B. wenn das zentrale Pixel in der Mitte eines Randes oder innerhalb oder außerhalb einer dunklen Fläche liegt, nicht erkannt.
  • Die Schaltung 18b ist mit den Adressen im Mehrzeilenspeicher 17 verbunden. Sie gibt an die Flip-Flop- Gruppe 18a die Adressen von Bildern aus, die eingegeben werden müssen, und sie gibt an den Zeilenspeicher 18d die Koordinaten (XY) der Pixel aus, die von FF11 (Fig. 4), dem zentralen Flip-Flop in der Gruppe 18a, ausgegeben werden. Das Ausgangssignal der Decodierschaltung 18c und die zentralen Koordinaten XY in diesem Moment werden im Zeilenspeicher 18d gespeichert. Die Erkennungsergebnisse für Daten mit dem Wert mehrerer Zeilen werden auch im Zeilenspeicher 18d gespeichert. Bei diesem Beispiel wurden neun Flip-Flops, die 3 · 3 Pixel darstellen, zum Erkennen der Ecke einer Figur verwendet, und die Zustände der Decodierschaltung 18c waren die im Diagramm gezeigten. Die Anzahl von verwendeten Flip-Flops und die Bedingungen für die Decodierschaltung 18c werden jedoch vorzugsweise gemäß der Form des Musters, das man erkennen will, und gemäß dem, welchen Teil von diesem man auswählt, um sich auf diesen zu konzentrieren, gewählt. Es wäre natürlich möglich, nach Bedarf einen Kreis oder irgendeine andere Form zu erkennen.
  • Beim vorstehend beschriebenen Ausführungsbeispiel wurde die Suche nach dem zu erkennenden festgelegten Muster durch eine Hardware ausgeführt. Es wäre auch möglich, diese Verarbeitung über eine Software abzuarbeiten, wie nachstehend erörtert wird. Wir werden als nächstes erläutern, wie eine Suche nach einer Ecke wie beim vorstehend erörterten Ausführungsbeispiel durchgeführt wird, und wie eine Suche nach einem Kreis (oder einer Markierung) durchgeführt wird.
  • Wie in Fig. 6 gezeigt, wird eine Maske aus 5 · 5 Pixeln verwendet, wobei der Gegenstand der Suche das zentrale Pixel ist. Der erste Schritt besteht darin, die Pixel des äußeren und inneren Umfangs zu numerieren. Der Bequemlichkeit halber beginnen wir mit dem am weitesten links liegenden Pixel in der oberen Zeile, dem die Adresse "0" zugewiesen wird. Die Pixel im äußeren Umfang werden dann in aufsteigender Reihenfolge mit einer Bewegung im Uhrzeigersinn numeriert und die Pixel des inneren Umfangs werden in derselben Weise, beginnend mit dem am weitesten links liegenden Pixel in der höchsten Zeile der inneren Pixel numeriert. Somit wird eine Adresse i zwischen 0 und 7 jedem Pixel des inneren Umfangs und eine Adresse i zwischen 0 und 15 jedem Pixel des äußeren Umfangs zugewiesen. Wenn eine Adresse für ein Pixel außerhalb diesen Bereich (0 bis 7 für den inneren Umfang und 0 bis 15 für den äußeren Umfang) bei jedem Verarbeitungsvorgang fällt, kann die korrekte Adresse durch Addieren oder Subtrahieren von 8 bzw. 16 erhalten werden. Wenn beispielsweise i = 16 für eine Adresse am äußeren Umfang, ist die tatsächliche Adresse 0. Wenn i = -1, ist die tatsächliche Adresse 15.
  • Die vier Ecken der Maske werden ausgehend von der oberen linken Ecke, die Winkel 0 genannt wird, in aufsteigender Reihenfolge mit einer Bewegung im Uhrzeigersinn numeriert. Die Mittelpunkte der Seiten der Maske werden ausgehend von der Oberseite, die Winkel 4 genannt wird, und mit einer Bewegung im Uhrzeigersinn numeriert, so daß die anderen Mittelpunkte als Winkel 5, 6 und 7 bezeichnet werden. Nachdem die Maske in dieser Weise numeriert ist, werden die relevanten Pixeldaten in dieser gemäß den nachstehend aufgezählten Verarbeitungsschritten durchsucht, um festzustellen, ob das zu erkennende festgelegte Muster gefunden werden kann oder nicht.
  • Zuerst wird die Maske mit Bezug auf die abgestuften Bilddaten mit geringer Auflösung, die empfangen wurden, abgetastet. Wenn ein schwarzes Pixel in der Mitte vorhanden ist, gehen wir zum nächsten Schritt über, der die Suche nach einem Anfangspunkt ist. Bei diesem Beispiel wurde festgesetzt, daß dieser Teil des festgelegten Musters (des Gegenstandes der Suche) schwarz, d. h. ein schwarzes Pixel ist. Mit dem entgegengesetzten Muster würde jedoch schwarz und weiß umgekehrt werden, und das mittlere Pixel wäre weiß. (Die anschließende Prozedur wäre dieselbe.)
  • Eine Durchsuche des Umfangs der Maske nach dem Punkt, wo die schwarzen Pixel beginnen, d. h. dem Punkt, wo die Fläche von weißen zu schwarzen Pixeln wechselt, wird durchgeführt. Mit anderen Worten, das System setzt auf i = 0 zurück und sucht, wobei jedesmal um Eins inkrementiert wird, nach einem Punkt, wo das Pixel Nummer i schwarz ist und das Pixel Nummer (i - 1) weiß ist. Wenn kein Anfangspunkt gefunden wird, wenn i = 16, wird die Beurteilung durchgeführt, daß das Muster in dieser Maske kein möglicher Kandidat für eine Übereinstimmung ist, und die grobe Suche wird beendet. Wenn ein Anfangspunkt gefunden wird, gehen wir zum nächsten Schritt über, der das Suchen nach einem Endpunkt ist. Wenn wir bei dem Beispiel, das dargestellt ist, i inkrementieren, bis wir i = 6 erreichen, finden wir ein schwarzes Pixel (durch Schraffieren in der Zeichnung dargestellt). Da das vorherige Pixel, Pixel 5 (i - 1) weiß ist, schlußfolgern wir, daß i = 6 der Anfangspunkt der schwarzen Pixel ist.
  • Wir suchen nun nach dem Punkt auf dem Umfang der Maske, wo die schwarzen Pixel enden, d. h. dem Punkt, wo schwarze Pixel zu weißen Pixeln übergehen. Da wir bei diesem Beispiel nach einer Ecke suchen, die ein rechter Winkel ist, können wir vorhersagen, wo der Endpunkt bezüglich des Anfangspunkts sein sollte, wenn dies tatsächlich das festgelegte Muster ist. Wir springen zu diesem Punkt und beurteilen, ob es ein Punkt ist, an dem schwarze Pixel enden und weiße Pixel beginnen, oder nicht. Wenn dies nicht der Fall ist, dann wird eine Beurteilung durchgeführt, daß der bei der vorherigen Verarbeitung erkannte Anfangspunkt nicht die Kante (oder Ecke) des festgelegten Musters ist.
  • Folglich wird eine Beurteilung hinsichtlich dessen durchgeführt, ob jede der folgenden drei nachstehenden Bedingungen (1) -(3) erfüllt ist. Wenn eine Bedingung erfüllt ist, geht das System zum nächsten Schritt der Winkelerkennungsverarbeitung über. Wenn irgendeine der drei Bedingungen nicht erfüllt ist, wird geschlußfolgert, wie vorstehend beschrieben, daß der Anfangspunkt, der erkannt wurde, falsch ist. Der Wert i wird um 2 erhöht, und wir kehren zum zweiten Schritt der Anfangspunkterkennungs- Verarbeitung zurück, in dem wir den Prozeß der Erkennung des Anfangspunkts für einen anderen Ort wiederholen. Wenn die Ecke keinen rechten Winkel bildet, wird der Zahlenwert durch Addieren der nachstehend gegebenen Werte zum Wert i gemäß dem Winkel in geeigneter Weise geändert.
  • (1) Wenn i 3, 7, 11 oder 15 ist, i + 6 ein schwarzes Pixel ist und i + 7 ein weißes Pixel ist, dann ist i + 6 der Endpunkt.
  • (2) Wenn i + 5 ein schwarzes und i + 6 ein weißes Pixel ist, dann ist i + 5 der Endpunkt.
  • (3) Wenn i + 4 ein schwarzes und i + 5 ein weißes Pixel ist, dann ist i + 4 der Endpunkt.
  • Um die Orientierung eines Musters zu ermitteln, das ein Kandidat für eine Übereinstimmung ist, müssen wir feststellen, welchem der vorstehend erwähnten Winkel 0 bis 7 es zugewandt ist. Dazu bedecken wir die Fläche zwischen dem Umfangsanfangspunkt und -endpunkt mit schwarzen Pixeln und bedecken die Fläche zwischen dem Endpunkt +1 und dem Anfangspunkt -1 mit weißen Pixeln. Wenn einer der Winkel 0 bis 7 unter den schwarzen Pixeln liegt (in diesem Fall einer der Winkel 0 bis 3), sagen wir, daß das Muster diesem Winkel zugewandt ist. Die Nummer dieses Winkels wird zum Angeben der Orientierung des Musters verwendet. Wenn mehrere Winkel in den schwarzen Pixeln gefunden werden, ist das Muster zu einem der vier größeren Winkel (Winkel 4 bis 7) hin orientiert. In der tatsächlichen Praxis kann der Winkel durch Durchführen der folgenden Berechnungen erhalten werden.
  • K&sub1; = (Anfangspunkt + 3)/4
  • K&sub2; = (Endpunkt)/4
  • Für sowohl K&sub1; als auch K&sub2; verwerfen wir Bruchwerte. Wenn K&sub1; 4 oder mehr ist, dann gilt K&sub1; = K&sub1;-4. Wenn wir beim Vergleich von K&sub1; und K&sub2; feststellen, daß sie gleich sind, dann wird der Wert von K&sub1; als Nummer des Winkels, dem das Muster zugewandt ist (einer der Winkel 0 bis 3), verwendet. Wenn K&sub1; und K&sub2; verschieden sind, addieren wir 4 zu K&sub1;, um den Nummernwert des Winkels, dem das Muster zugewandt ist (einer der Winkel 4 bis 7), zu erhalten.
  • Wenn durch die vorstehend beschriebene Verarbeitung ein Muster erkannt wird, das wie die festgelegte Ecke aussieht, werden die Koordinaten seines Trefferpunkts, d. h. die Bezugsposition für diese Ecke (für die Spitze einer Ecke die Mittelposition der Maske) zu einer Vorbeurteilungseinheit 19 zusammen mit der Orientierung des Winkels gesandt. Der Ablauf von Operationen, die während einer Eckensuche durchgeführt werden, ist in Fig. 7 dargestellt. Die Ecke, nach der bei diesem Beispiel gesucht wurde, muß nicht auf die äußere Ecke einer Banknote begrenzt sein. Es kann nach einer beliebigen Art Ecke gesucht werden, einschließlich eines eckenartigen Musters auf dem inneren Teil eines Geldscheins oder in irgendeinem anderen Dokument.
  • Eine grobe Suche wird durch Erkennen eines runden Musters mit einem festgelegten Durchmesser in einem festgelegten Bereich durchgeführt. Insbesondere wird ein Standardring mit einem festgelegten Durchmesser verwendet, wie in Fig. 8 gezeigt (das Plus gibt die Mitte des Rings an). Ein Muster, das gefunden wird, wird mit diesen Ringen verglichen; wenn es einen hohen Übereinstimmungsgrad aufweist, wird es als mögliche Übereinstimmung beurteilt.
  • Der Zeilenspeicher 18d in der Sucheinheit 18, der in der Hardware realisiert ist, speichert viele Daten, die nicht zur Mustergewinnungsvorrichtung 2 für den nächsten Schritt der Verarbeitung gesandt werden müssen. Die Daten, die im Zeilenspeicher 18d gespeichert sind, werden statt dessen zur Vorbeurteilungseinheit 19 gesandt, wo eine Beurteilung hinsichtlich dessen gefällt wird, ob diese Daten zur Mustergewinnungsvorrichtung 2 gesandt und von dieser verarbeitet werden sollten (Vorauswahl von Trefferpunkten).
  • Bei diesem Beispiel wird eine grobe Suche mit Bezug auf abgestufte Daten durchgeführt. Dies ermöglicht, daß Bilddaten, die potentiell das festgelegte Muster aufweisen, schnell und sicher als mögliche Übereinstimmungen identifiziert werden. Gleichzeitig wird auch eine große Menge an nutzlosen Daten erfaßt. Wenn die Zustände der Pixel auf dem Umfang zu der Beurteilung führen, daß ein gegebenes Muster nicht das festgelegte Muster ist, kann dieses Muster beseitigt werden, ohne daß es an die Mustergewinnungsvorrichtung 2 ausgegeben wird, wobei der Bedarf für anschließende genauere Beurteilungen vermieden wird. Nur die tatsächlichen Trefferpunkte werden an den Speicher 21 in der Mustergewinnungsvorrichtung 2 ausgegeben.
  • Um diese Beurteilung zu verarbeiten, werden die im Speicher 18d gespeicherten Daten, für die das Ausgangssignal auf einen hohen Pegel schaltet (die Trefferpunkte), gewonnen und effektive Trefferpunkte werden auf der Basis der relativen räumlichen Beziehungen unter diesen Trefferpunkten und anderen Trefferpunkten, die an ihrem Umfang liegen, erkannt. Die Positionskoordinaten XY und die Orientierungsdaten für diese Punkte, HIT 0 bis 7, werden im Speicher 21 gespeichert.
  • Um ein Beispiel zu geben, wenn, in Abhängigkeit von der Art von Muster, das gesucht wird (seine Form, Größe usw.), ein weiterer Trefferpunkt in der Nähe eines Trefferpunkts, der erkannt wurde, oder innerhalb eines festgelegten Bereichs um diesen Trefferpunkt vorliegt, dann wird der erste Trefferpunkt als gültig betrachtet. Wenn eine Anzahl von Trefferpunkten innerhalb eines festgelegten Bereichs gefunden werden, dann wird eine geeignete Entscheidung in Abhängigkeit von dem Muster getroffen, um nur den Umfang (Fig. 9 (A)) oder nur die Mitte (Fig. 9 (B)) zu berücksichtigen.
  • Wenn bei dem vorstehend erörterten Beispiel eine festgelegte Anzahl von Pixeln aus den Bilddaten gemittelt wurden, um ein abgestuftes Bild zu erzeugen, wurde die Auflösung auf ein festgelegtes Niveau in einer einzelnen Operation verändert. Es wäre alternativ möglich, die Auflösung unter Verwendung einer Reihe von Operationen allmählich zu verändern.
  • Fig. 10 ist ein Blockdiagramm, das eine beispielhafte Anordnung der Mustergewinnungsvorrichtung 2 darstellt. Wie in Fig. 10 gezeigt, speichert die Vorrichtung 2 im Speicher 20 kontinuierlich die RGB-Daten (das Bild mit variabler Dichte) von der Erkennungsvorrichtung 1, die noch nicht in Binärwerte umgewandelt wurden. Der Speicher 20 weist eine ausreichende Kapazität auf, um zu ermöglichen, daß er die Speicherung von Bilddaten von den Pixeln (oder der Zeile), die gegenwärtig vom Bildsensor gelesen werden, zu einem festgelegten früheren Punkt aufrechterhält (zumindest so groß wie das zu erkennende Muster). Wenn seine Kapazität erreicht ist, werden die ältesten Daten (die am frühesten erfaßten Daten) gelöscht und neue Daten werden an ihre Stelle geschrieben.
  • Wie vorher beschrieben wurde, werden die Koordinatenwerte und die Orientierung von gültigen Trefferpunkten, die von der Vorbeurteilungseinheit 19 in der Erkennungsvorrichtung 1 (Fig. 2) ausgegeben werden, in den Speicher 21 geschrieben. Die gespeicherten Koordinatenwerte werden von der Steuer-CPU 30 ausgelesen. Die CPU 30 sendet verschiedene Steuersignale zur Gewinnungsvorrichtung 2, wobei somit ihr Betrieb gesteuert wird. Ein solches Steuersignal ist der zum Speicher 20 gesandte Befehl, der ihn auffordert, auf der Basis der aus dem Speicher 21 ausgelesenen Koordinatenwerte die Bilddaten, die das zu einem gültigen Trefferpunkt gehörende Muster enthalten, auszugeben.
  • Auf der Basis der von der CPU 30 ausgelesenen Koordinaten werden die im Speicher 20 gespeicherten entsprechenden Bilddaten zur Binäreinheit 22 gesandt. Hier werden die RGB- Bilddaten in Binärwerte umgewandelt; der Schwellenwert für diese Umwandlung muß jedoch nicht der gleiche sein wie der vom Binärprozessor 16 in der Mustererkennungsvorrichtung 1 (Fig. 2) verwendete. Da die Hauptaufgabe in der Vorrichtung 1 darin bestand, die Anwesenheit von möglichen Übereinstimmungen mit dem festgelegten Muster zu erkennen, wurde die Schwelle auf ein Niveau gesetzt, das grundsätzlich das Innere des Musters vollständig dunkel wiedergab. Die von der Vorrichtung 2 verwendete Schwelle wird so festgelegt, daß genauere Trefferpunkte (festgelegte Positionen) gewonnen werden und ein detailliertes Mosaik gezeigt wird, das die Eigenschaften des erkannten Musters offenbart, so daß die Mustererkennung in einer späteren Stufe durchgeführt werden kann.
  • Die in dieser Weise erzeugten Binärdaten werden vorübergehend im detaillierten Speicher 24 gespeichert und der Reihe nach zur Positionserkennungseinheit (CPU) 25 gesandt. Hier werden Bezugspunkte für die in der Vergleichsvorrichtung 3 durchzuführende Vergleichsoperation erhalten. Auf der Basis der Daten, die im Programm-ROM 25a gespeichert sind, welcher mit der CPU 25 verbunden ist, wird eine bestimmte festgelegte Position in dem zu erkennenden festgelegten Muster erhalten. Für eine Ecke ist diese Position der genaue Ort der Spitze und für eine Markierung der genaue Ort der Mitte.
  • Mit anderen Worten, die Positionserkennungseinheit (CPU) 25 arbeitet grundsätzlich in derselben Weise wie die Vorbeurteilungseinheit 19, die vorstehend beschrieben wurde. Sie führt die Verarbeitung durch, die für ein Muster geeignet ist, das eine Ecke oder eine Markierung ist, und sie erhält eine festgelegte Position innerhalb dieses Musters, die der genaue Ort der Spitze für eine Ecke und der genaue Ort der Mitte für eine Markierung ist. Falls, wenn die Positionserkennungseinheit (CPU) 25 diese genaue Position gewinnt, sie beurteilt, daß dieser Kandidat nicht das zu erkennende festgelegte Muster ist, stoppt die Ausgabe, wie nachstehend genauer mit Bezug auf die Fig. 11 und 12 erläutert wird.
  • Bei der groben Suche ist die ungefähre Spitze der Ecke (der Trefferpunkt) sowie die Orientierung der Ecke bekannt. Ein hypothetischer Ursprung 0 wird in einer festgelegten Position in der Nähe des Trefferpunkts H und innerhalb der Ecke festgesetzt. Aus diesem hypothetischen Ursprung 0 werden eine horizontale X-Achse und eine vertikale Y-Achse festgesetzt (Schritte 1 und 2).
  • Als nächstes wird die erforderliche Konstante zum Erkennen einer festgelegten Position im Muster festgesetzt (Schritt 3). Durch Bewegen entlang der X-Achse in Schritten mit einer festgelegten Breite (durch Pfeile in Fig. 11 angegeben) tasten wir bei jedem Schritt in einer positiven (Aufwärts-) und negativen (Abwärts-) Richtung parallel zur Y-Achse ab, wobei beurteilt wird, ob die Pixel schwarz oder weiß sind. Wir finden den Rand zwischen Schwarz und Weiß (der Rand, wo Schwarz endet und Weiß beginnt, wird nachstehend als Kante bezeichnet) (Schritte 4 und 5), und wir zeichnen eine gerade Linie, die so nahe wie möglich der Kante, die erkannt wurde, folgt (durch Schraffieren angegebene Segmente). Das Kriterium des minimalen mittleren Quadrats könnte beispielsweise verwendet werden, um zu bewirken, daß sich die verschiedenen Kanten, die erkannt wurden, einer geraden Linie nähern (Schritte 6 und 7). Wenn die relevante Verarbeitung durchgeführt wird, werden die zwei Kanten, die sich auf beiden Seiten der Y-Achse erstrecken, als gerade Linien L1 und L2 gleichmäßig gemacht. Der Schnittpunkt dieser zwei Linien wird aufgefunden und als Spitze P bezeichnet (Schritte 8 und 9).
  • Die genaue Orientierung der Ecke kann aus der Steigung von einer der geraden Linien (oder Kanten), die erkannt wurden, oder aus der Steigung der Linie, die den Winkel halbiert, der durch die zwei geraden Linien gebildet wird, berechnet werden (Schritt 10). Die Koordinaten der Spitze und die Steigung werden zur Steuer-CPU 30 übertragen.
  • Falls, wenn die Spitze gewonnen wird, keine zwei Kanten gefunden werden können, oder falls eine unzureichende Anzahl von Kantendaten gefunden werden, oder falls der von den zwei Kantenlinien gebildete Winkel wesentlich vom festgelegten Winkel abweicht, dann wird eine Beurteilung gefällt, daß das gefundene Muster nicht die Ecke ist, die wir suchen, d. h. es nicht das zu erkennende festgelegte Muster ist, und die Ausgabe stoppt.
  • Wie in den Fig. 13 und 14 dargestellt, wird der bei der groben Suche nach einer Markierung entdeckte Trefferpunkt als hypothetischer Mittelpunkt O betrachtet. Die Linien L3 bis L6 werden in den vier Kompaßrichtungen ab dem Mittelpunkt O gezeichnet, um die X- und Y-Achse zu bilden (Schritt 11). Die erforderlichen Konstanten für die Erkennung von festgelegten Positionen in dem Muster werden festgesetzt (Schritt 12). Da der Radius der Markierung bereits bekannt ist, kann der ungefähre Ort ihres Umfangs, d. h. ihrer Kante, ermittelt werden. Eine Linie L' wird orthogonal zum Radius gezeichnet, und diese Linie wird zum Festsetzen eines Fensters, d. h. einer Fläche, mit einer Breite a und einer Tiefe b, verwendet (Schritte 12 bis 14).
  • Ein Histogramm wird von den schwarzen Pixeln in der Richtung der Suche (der radialen Richtung) und der orthogonalen Richtung gezeichnet. Eine bestimmte Höhe des Histogramms Hth wird als Schwellenwert gewählt. Niveaus, die größer sind als die Höhe Hth werden als die Markierung darstellend betrachtet, sofern sie fortlaufen. Der Punkt, an dem sie enden, wird als Anfang der leeren Fläche betrachtet. Der Rand zwischen diesen Flächen wird als Kante betrachtet. Anstatt eine Beurteilung nur auf der Basis der Verarbeitung, die einen Schwellenwert einbezieht, durchzuführen, wäre es alternativ möglich, den Rand zwischen den Muster- und Nicht-Muster-Teilen auf der Basis der Änderung der Höhe des Histogramms und seiner Kontinuität zu gewinnen (Schritte 15 und 16).
  • Die Suche nach der Kante wird in radialer Richtung sowohl auf der linken als auch der rechten Seite durchgeführt und eine Mittelposition P wird für die Kanten erhalten, die als Ergebnis der Suche gewonnen wurden. In derselben Weise werden die oberen und unteren Kanten gefunden, und die Mittelpositionen werden für diese erhalten (Schritte 17 und 18).
  • Wenn nur eine Kante gewonnen werden kann, kann der Radius des Zielbildes zum Ermitteln der Mitte verwendet werden. Dies wird durch Zurückbewegen von der Kante, die erkannt wurde, entlang eines Radius in einem Abstand gleich dem Radius des Ziels und Erklären von diesem Punkt zum Zentrum durchgeführt. Wenn die Mittelposition und der Radius in dieser Weise ermittelt wurden, werden die relevanten Daten an die CPU 30 ausgegeben (Schritt 19). Falls keine Mitte gefunden werden kann, wenn eine Anzahl von hypothetischen Mittelpunkten erkannt wurden, wie vorstehend beschrieben (da die Durchmesser zu stark variieren oder Kanten nicht auf beiden Seiten des Durchmessers erkannt werden können), wird eine Beurteilung gefällt, daß die verarbeiteten Bilddaten nicht das zu erkennende festgelegte Muster enthalten, und die Ausgabe stoppt.
  • Da bei diesem Beispiel nur die Daten innerhalb des Fensters durchsucht werden, kann die Verarbeitung mit hoher Geschwindigkeit durchgeführt werden. Wenn eine spezielle Form innerhalb des festgelegten Musters oder ein Merkmal einer gewissen Art innerhalb der Markierung vorhanden ist, können die Daten als Histogramm mit vier Richtungen in derselben Weise, wie vorstehend beschrieben wurde, ausgedrückt werden. Da der Drehwinkel bekannt ist, können sie auch nach Bedarf zur CPU 30 übertragen werden.
  • Wir werden als nächstes die Arbeitsvorgänge der Mustervergleichsvorrichtung 3 erörtern. Wie in Fig. 10 gezeigt ist, werden die Koordinatendaten für die Spitze und die Steigung einer Ecke, die dem festgelegten Muster ähnelt, oder für die Mittelposition einer Markierung von der Positionserkennungseinheit (CPU) 25 zur Steuer-CPU 30 gesandt. Auf der Basis der im Programm-ROM 30a gespeicherten Daten legt die Steuer-CPU 30 fest, welche der im Speicher 24 gespeicherten Bilddaten ausgelesen werden müssen, und sie entscheidet, welcher Bereich der Bilddaten mit dem zu erkennenden festgelegten Muster verglichen werden sollte. Die relevanten Bilddaten in diesem Bereich werden auf der Basis eines Steuersignals von der Steuer-CPU 30 vom Speicher 24 zur Einheit 35 für einen unscharfen Rückschluß übertragen. Rückschlüsse werden unter Verwendung des in den Speichern 36 und 37 gespeicherten unscharfen Wissens, welche Regeln und Mitgliedfunktionen umfassen, verarbeitet. Dann wird eine Beurteilung hinsichtlich des Ähnlichkeitsgrades zwischen den empfangenen Bilddaten und dem vorher festgesetzten zu erkennenden festgelegten Muster gefällt (siehe Fig. 15).
  • Ein Beispiel ist in den Fig. 16(A)-16(B) gezeigt. Merkmalsräume werden unter Verwendung von vorher abgestuften Bilddaten eingerichtet. Die Anzahl von Merkmalen wird durch Zählen der tatsächlichen Anzahl von festgelegten Pixeln in jedem Merkmalsraum (jeder der in dem Beispiel gezeigten vier Bereiche) gewonnen. In dieser Weise finden wir, daß der Merkmalsraum R1 24 Pixel aufweist, der Raum R2 26 aufweist, der Raum R3 30 aufweist und der Raum R4 29 aufweist.
  • Unter Verwendung der Merkmalszählwerte, die gewonnen wurden, werden gemäß vorher festgesetzten Regeln und Mitgliedfunktionen (in Fig. 17 gezeigt) unscharfe Rückschlüsse gezogen, und der Übereinstimmungsgrad (d. h. der Ähnlichkeitsgrad) zwischen diesen Daten und dem Bezugsmuster wird ermittelt und ausgegeben. Bei dem gezeigten Beispiel ist der Übereinstimmungsgrad 0,6. Da dies höher als 0,5 ist, welches der Beurteilungsstandard ist, wird geschlußfolgert, daß dieses Bild zum Bezugsmuster identisch ist.
  • Bei diesem Beispiel werden die Merkmalsräume durch Zeichnen eines Gitters erzeugt; der Benutzer kann jedoch irgendeine andere Form eines Merkmalsraums wählen, die für seinen Zweck besser geeignet ist, wie z. B. konzentrische Kreise oder Rechtecke. Der Merkmalszählwert, der gewonnen wird, kann auch andere Formen als die Anzahl von Pixeln pro Raum annehmen. Man könnte alternativ die Anzahl von verbundenen oder getrennten Pixeln, ihre Orientierung oder ein anderes Merkmal verwenden.
  • Wenn das unscharfe Wissen abgelegt wurde, wurden auch bei diesem Beispiel eine Anzahl von Punkten von unscharfem Wissen festgesetzt, die ein einzelnes zu erkennendes festgelegtes Muster betreffen. Diese verschiedenen Punkte von Wissen können alle aufgerufen werden, wenn Rückschlüsse verarbeitet werden. Es könnte beispielsweise passieren, daß die Bilddaten, die gelesen wurden, nicht zu jenen des zu erkennenden festgelegten Musters identisch sind, sondern aufgrund eines Drucküberdeckungsfehlers oder irgendeines anderen Fehlers um ein gewisses Ausmaß räumlich verschoben sind. Ein häufiges Problem bei Markierungen besteht darin, daß der Drehwinkel unklar ist. Um mit solchen Situationen zurechtzukommen, können wir einen Überdeckungsfehler des zu erkennenden festgelegten Musters oder zahlreiche mögliche Drehwinkel hypothetisch annehmen, wenn wir das unscharfe Wissen erzeugen, und wir können diese Hypothesen speichern.
  • Ein Beispiel hinsichtlich einer Ecke ist in Fig. 18(A) gegeben. Kartendaten werden durch Lesen des Ziel- (oder Bezugs-) Musters mit einer festgelegten Auflösung unter Verwendung eines Bildes, dessen zentraler Teil korrekt in Deckung ist, wie durch die durchgezogenen Linien in der Zeichnung gezeigt, erzeugt. Diese Kartendaten sind äquivalent zu den Bilddaten, die von der Binäreinheit 24 in der Mustergewinnungsvorrichtung 2 zu dem Zeitpunkt ausgegeben werden, zu dem das zu erkennende festgelegte Muster vom Kopierer gelesen wird. In derselben Weise werden Kartendaten für ein Bild erzeugt, das horizontal, nach oben links (durch die gestrichelten Linien in der Zeichnung dargestellt), nach oben rechts, nach unten links oder nach unten rechts verschoben wurde.
  • Für eine Markierung, wie in Fig. 18(B) gezeigt, werden Kartendaten durch Lesen des Ziel- (oder Bezugs-) Musters mit einer festgelegten Auflösung unter Verwendung eines Bildes erzeugt, dessen Drehwinkel 0º beträgt (ein Bild, das vertikal orientiert ist). Diese Kartendaten sind äquivalent zu den Bilddaten, die von der Binäreinheit 24 in der Mustergewinnungsvorrichtung 2 zu dem Zeitpunkt ausgegeben werden, zu dem das zu erkennende festgelegte Muster vom Kopierer gelesen wird. Die Polarkoordinaten dieses Bildes werden so verändert, daß ihre Drehwinkel in Schritten von 45 Grad verschoben wurden, und Kartendaten werden für die resultierenden Bilder erzeugt. Für jedes dieser Bilder wird ein Punkt von unscharfem Wissen erzeugt. In dieser Weise werden zahlreiche Punkte von unscharfem Wissen durch Ändern des Drehwinkels eines einzelnen Musters (in diesem Fall einer Markierung) erzeugt.
  • Die zahlreichen Punkte von unscharfem Wissen, die in dieser Weise erzielt werden, werden zu Sätzen gruppiert, von denen alle zum Ziehen von Rückschlüssen verwendet werden. Das Muster mit dem höchsten gefolgerten Übereinstimmungsgrad wird als das erkannte zu erkennende festgelegte Muster erachtet. Dieses Schema ermöglicht uns, wahrscheinliche Übereinstimmungen zu gewinnen und Rückschlüsse hinsichtlich dieser vermutlichen Übereinstimmungen ohne Rücksicht auf die Richtung, in der eine Markierung gedreht ist, oder die verschobene Position einer Ecke zu verarbeiten.
  • Es ist auch möglich, unscharfes Wissen zu erzeugen, ohne auf diese Art Gruppierung zu greifen, durch statistisches Verarbeiten von jedem möglichen verschobenen Bild. In diesem Fall ist letztlich eine einzelne Masse von unscharfem Wissen vorhanden; wenn wir jedoch unscharfes Wissen durch Betrachten der Drehrichtung oder der horizontalen Verschiebung eines einzelnen Bezugsmusters erzeugen, verwenden wir die zahlreichen Punkte von Wissen, die in dieser Erfindung erwähnt werden. Wenn wir die zwei Methoden vergleichen, stellen wir fest, daß die erstere, d. h. die Verwendung von Sätzen von Wissenspunkten, eine höhere Rate für die Mustererkennung bietet, während die letztere eine größere Verarbeitungsgeschwindigkeit bietet. Der Benutzer muß entscheiden, welche Wahl geeignet ist.
  • Wenn das Bild um ein Pixel (oder um ein ganzzahliges Vielfaches eines Pixels) verschoben ist, kann eine Adressierungsoperation durchgeführt werden. Diese besteht aus dem wiederholten Durchführen eines Rückschlusses, während das Bezugsmuster oder das Muster, das man versucht zu finden, zu einer Seite in einer festgelegten Richtung verschoben wird. Diese Methode ermöglicht uns, auf dieselben Operationen und Ergebnisse zuzugreifen, als ob wir zahlreiche Punkte von Wissen verwenden würden, selbst wenn diese Punkte nicht tatsächlich im Speicher gespeichert sind. Es ermöglicht auch, daß eine sorgfältige Beurteilung durchgeführt wird, selbst wenn die Position des Musters verschoben ist. Das hierin beschriebene Konzept zum Ableiten von zahlreichen Punkten von Wissen aus einem einzelnen Muster ist breit genug, um sowohl die tatsächliche Speicherung von diesen Punkten in einem Speicher als auch die hypothetische Verwendung dieser vorstehend beschriebenen Punkte einzuschließen.
  • Der Übereinstimmungsgrad, der auf der Basis der zahlreichen Punkte von Wissen, wie vorstehend beschrieben, geschlossen wird, wird durch die Steuer-CPU 30 an einen PPC (einen Kopierer) ausgegeben. Wenn der Übereinstimmungsgrad einen gegebenen Schwellenwert übersteigt, schlußfolgert der Kopierer, daß das präsentierte Dokument eine Banknote oder irgendein anderer Gegenstand, der nicht legal kopiert werden kann, ist. Er fährt fort, das Programm auszuführen, das er zum Verhindern einer Fälschung besitzt, durch beispielsweise Verbieten des Kopiervorgangs, Ausgeben eines vollständig schwarzen Bildfeldes, usw. Als Alternative kann die CPU 30 eine Beurteilung hinsichtlich dessen fällen, ob der präsentierte Gegenstand ein verbotenes Dokument ist, d. h. ob er eines der zu erkennenden festgelegten Muster enthält, und sie kann das Ergebnis, z. B. ein Stoppsignal, an den Kopierer ausgeben.
  • Die Fig. 19 und 20 zeigen ein Beispiel, bei dem die Vorrichtung in ein Kopiergerät eingebaut ist. Wie in Fig. 19 gezeigt, wird das von der Lampe 52 emittierte Licht vom Dokument 51, das auf das Glas 50 gelegt ist, reflektiert. Das reflektierte Licht tritt durch ein optisches System 53 und tritt in ein CCD 54 ein, das ein Bildabtaster ist. Hier wird das Bild auf dem Dokument gelesen. Die Lampe 52 sowie der ebene Spiegel und andere Komponenten, die das optische System 53 umfaßt, bewegen sich mit festgelegter Geschwindigkeit, wenn es das Dokument abtastet. Zeile für Zeile liest das CCD 54 den festgelegten Teil des Dokuments 51 und es überträgt die Bilddaten (R/G/B) zur Signalverarbeitungseinheit 55.
  • Die Signalverarbeitungseinheit 55, die in Fig. 20 genauer dargestellt ist, weist eine gewöhnliche Farbverarbeitungsschaltung 56 und eine Bildverarbeitungsvorrichtung 57 auf, die die vorstehend als Merkmal dieser Erfindung erörterte Bildverarbeitungsvorrichtung ist. Die Bilddaten werden parallel zur Farbverarbeitungsschaltung 56 und zur Bildverarbeitungsvorrichtung 57 übertragen. Die Farbverarbeitungsschaltung 56 zerlegt die Farben in ihre verschiedenen Komponenten Magenta (M), Zyan (C), Gelb (Y) und Schwarz (Bk), und gibt diese Daten an die Druckvorrichtung 58 aus. Das Bild wird eigentlich viermal abgetastet. Eine der vier Komponenten (M, C, Y oder Bk), die sich aus der ersten Abtastung ergeben, wird an einen Lasertreiber 59 ausgegeben, der an der Eingangsseite der Druckvorrichtung 58 angeordnet ist. Dieser bewirkt, daß ein Laserstrahl auf einen festgelegten Ort auf einer lichtempfindlichen Trommel 60 projiziert wird. Wenn die vierte Abtastung beendet wurde, wird der Kopiervorgang auf dem Kopierpapier durchgeführt, und die fertiggestellte Kopie 61 wird ausgegeben. Da der tatsächliche Mechanismus, der den Kopiervorgang durchführt, zu jenem von existierenden Kopierern identisch ist, werden wir auf eine Erläuterung seiner Tätigkeit verzichten.
  • Obwohl die Signalverarbeitung durch die Farbverarbeitungsschaltung 56 ausgeführt wird, führt die Bildverarbeitungsvorrichtung 57 ihre eigene Verarbeitung parallel durch, um den Ähnlichkeitsgrad zwischen dem Muster, das sie in den Bilddaten, die sie liest, findet, und dem festgelegten (oder Bezugs-) Muster zu erhalten. Wenn das Dokument 51, das immer noch gelesen wird, eine Banknote oder ein anderes Dokument ist, das nicht kopiert werden darf, erzeugt die Bildverarbeitungsvorrichtung 57 ein Steuersignal, um die Ausgabe des Lasertreibers 59 anzuhalten, oder überträgt ein Steuersignal zur Farbverarbeitungsschaltung 56, um sie zu veranlassen, ihre verschiedenen Kopierverhinderungsroutinen für Situationen, in denen das Kopieren verboten ist, auszuführen, wie z. B. Veranlassen, daß die gesamte fertiggestellte Kopie 61 schwarz wird.
  • Die Beurteilungsverarbeitung bei diesem Ausführungsbeispiel wird in Echtzeit während der ersten Abtastung durchgeführt. Diese Vorrichtung kann dann in Kopierern verwendet werden, die ein Verfahren mit einzelner Abtastung verwenden. Sie kann natürlich auch in Kopierern verwendet werden, die ein Verfahren mit mehreren Abtastungen verwenden. Bei Kopierern dieser Art sendet die CPU 30 ein Steuersignal zur Mustererkennungsvorrichtung 1, die in Fig. 2 dargestellt ist. Der Erkennungsprozeß kann bei jeder Abtastung für ein anderes zu erkennendes festgelegtes Muster durchgeführt werden.
  • Bei dem vorstehend erörterten Beispiel können eine Anzahl von festgelegten Mustern bei einer einzelnen Abtastung erkannt werden. Zwischen der Vollendung der ersten Abtastung und dem Beginn der zweiten kann ein Befehl von der CPU 30 zur Erkennungsvorrichtung 1 übertragen werden, der alle Parameter der Verarbeitungseinheiten (den Schwellenwert für Binärdaten und so weiter) ändert. Durch erneutes Schreiben dieser Parameter machen wir es möglich, eine andere Gruppe von festgelegten Mustern zu erkennen. Diese Anordnung ermöglicht uns dann, das Fälschen von einer äußerst großen Anzahl von verbotenen Dokumenten wie z. B. Geld zu verhindern, welche als zu erkennendes festgelegtes Muster dienen. Da nur ein Teil und nicht die gesamte Fläche eines Geldscheins erkannt und mit einem festgelegten Muster verglichen wird, muß keiner der erforderlichen Speicher eine große Kapazität aufweisen. Obwohl sie die Fälschung von einer Vielzahl von Dokumenten sorgfältig verhindern kann, wie vorstehend erörtert, erfordert die Vorrichtung keine außergewöhnliche Gesamtspeicherkapazität.
  • Fig. 21 zeigt ein zweites Ausführungsbeispiel einer Bildverarbeitungsvorrichtung, die gemäß dieser Erfindung ausgelegt ist. Beim vorher erörterten ersten Ausführungsbeispiel wurden aus den RGB-Daten Merkmale gewonnen, die Pixel für Pixel in einer linearen Sequenz übertragen wurden, und die festgelegte Verarbeitung wurde dann durchgeführt. Beim zweiten Ausführungsbeispiel, das sich für Kopierer, die ein feldsequentielles Schema verwenden, eignet, werden alle R-Daten, dann alle G-Daten, dann alle B-Daten des gelesenen Bildes für den Drucker nacheinander übertragen.
  • Wir werden als nächstes eine kurze Erläuterung dessen geben, wie das zweite Ausführungsbeispiel arbeitet. Wie in Fig. 1 gezeigt, führt die Mustererkennungsvorrichtung 1 eine grobe Suche durch, die Mustergewinnungsvorrichtung 2 führt eine detaillierte Suche durch, und die Mustervergleichsvorrichtung 3 verarbeitet eine Beurteilung bezüglich der potentiellen Übereinstimmungen für das festgelegte Muster, die gewonnen wurden. Soweit ist die Grundstruktur dieselbe wie beim ersten Ausführungsbeispiel. Das zweite Ausführungsbeispiel unterscheidet sich vom ersten insofern, als das zweite Ausführungsbeispiel separate Bezugsmuster, die beim Vergleichsprozeß verwendet werden sollen, für jeden der Sätze von R-, G- und B-Daten konstruiert. Eine grobe Suche und eine detaillierte Suche werden nach jedem der Signale RGB, die in feldsequentieller Weise übertragen werden, durchgeführt. Bei diesen Suchen wird ein Merkmalszählwert gewonnen und potentielle Übereinstimmungen werden erkannt. Jedesmal wird eine Gesamtbeurteilung hinsichtlich des Orts der Merkmale, des Übereinstimmungsgrades und so weiter durchgeführt. Eine Beurteilung wird auch hinsichtlich dessen durchgeführt, ob das verarbeitete Bild zum zu erkennenden festgelegten Bezugsmuster identisch ist oder nicht.
  • Wenn wir die Hardware des zweiten Ausführungsbeispiels mit jener des ersten Ausführungsbeispiels, das in Fig. 10 dargestellt ist, vergleichen, sehen wir, daß das zweite Ausführungsbeispiel einen zusätzlichen Speicher 65 zur vorübergehenden Speicherung der Ergebnisse der Rückschlüsse, die durchgeführt werden, nachdem jedes Signal empfangen ist, aufweist. Dieser Speicher ist mit einer CPU 30' verbunden. Abgesehen von der Tatsache, daß die Punkte, die sie verarbeiten, die gesamten Pixel der R-, G- oder B- Daten sind, die in feldsequentieller Weise empfangen werden, weisen die Mustererkennungsvorrichtung 1' und die Mustergewinnungsvorrichtung 2' dieselben Fähigkeiten auf wie ihre Gegenstücke im ersten Ausführungsbeispiel.
  • Die CPU 30' überträgt Daten hinsichtlich potentieller Übereinstimmungen, die sie von der Mustergewinnungsvorrichtung 2' empfängt, zur Einheit 35' für einen unscharfen Rückschluß. Auf der Basis eines Bezugsmusters, das durch Signale dargestellt wird, die seinen Merkmalen entsprechen (die im Regelspeicher 36' und MF-Speicher 37' gespeichert sind), zieht die Einheit 35' unscharfe Rückschlüsse und erhält den Übereinstimmungsgrad jeder potentiellen Übereinstimmung.
  • Die CPU 30' beurteilt auch, ob jede potentielle Übereinstimmung als effektiver Kandidat (ein Kandidat, der sich in die Gemeinschaft begeben sollte, die hinsichtlich dessen beurteilt werden soll, ob sie das zu erkennende festgelegte Muster enthält) betrachtet werden sollte. Der Übereinstimmungsgrad und der Ort, d. h. die Positionskoordinaten des Bezugspunkts, die von der Positionserkennungseinheit 25' erhalten werden, der Daten hinsichtlich effektiver Kandidaten werden im Speicher 65 gespeichert. Als Teil der Beurteilungsverarbeitung wird der beim zweiten Ausführungsbeispiel erhaltene Übereinstimmungsgrad mit einem Schwellenwert verglichen. Daten hinsichtlich Kandidaten, deren Übereinstimmungsgrad den vorher festgesetzten Schwellenwert übersteigt, beispielsweise 70%, werden gewonnen.
  • Ein Beispiel ist in den Fig. 22(A)-22(C) dargestellt. Die 1%, G- und B-Komponenten der Bilddaten sind in den Fig. 22 (A), 22 (B) bzw. 22 (C) dargestellt. Die Mustergewinnungsvorrichtung 2' gewinnt die Muster (1) bis (4) aufgrund ihrer Ähnlichkeit mit einem zu erkennenden festgelegten Muster und sendet sie zur CPU 30'. Als Ergebnis von Rückschlüssen, die von der Einheit 35' für einen unscharfen Rückschluß gezogen werden, wird festgestellt; daß der Übereinstimmungsgrad des Musters (1) bezüglich des zu erkennenden festgelegten Musters, d. h. des Bezugsmusters, 85% beträgt, und jener der Muster (2) bis (4) wird als 50%, 75% bzw. 80% festgestellt.
  • Daten hinsichtlich der Muster (1), (3) und (4), deren Übereinstimmungsgrad 70% übersteigt, was sie zu effektiven Kandidaten für eine Übereinstimmung macht, werden im Speicher 65 gespeichert. Ein Beispiel dessen, wie diese Daten organisiert werden, um gespeichert zu werden, ist in Fig. 23 gezeigt. Der Übereinstimmungsgrad wird zusammen mit der Position, d. h. den Koordinaten der Bezugsposition, gespeichert und Daten, die betreffen, welchem festgelegten Muster der Kandidat ähnelt, werden auch gespeichert, obwohl sie in Fig. 23 nicht enthalten sind. Wenn eine Anzahl von effektiven Kandidaten unter den Daten vorhanden sind, die durch ein einzelnes Signal dargestellt werden, werden die Daten hinsichtlich jedes von ihnen ebenso gespeichert, wie durch die Klammern in Fig. 23 angegeben.
  • Die CPU 30' beurteilt auch, ob die drei Rückschlußoperationen, eine für R, eine für G und eine für B, alle vollendet wurden. Wenn dies der Fall ist, führt die CPU 30' Gesamtbeurteilungen der Daten hinsichtlich der effektiven Kandidaten, die im Speicher 65 gespeichert sind, durch und fällt eine Endbeurteilung hinsichtlich dessen, ob das verarbeitete Bild das zu erkennende festgelegte Muster enthält oder nicht. Sie gibt dann ein festgelegtes Steuersignal an den Kopierer oder eine andere Vorrichtung (nicht dargestellt) aus.
  • Die tatsächlichen Schritte bei diesem Prozeß sind in den Fig. 24 und 25 dargestellt. Das gewünschte Signal, beispielsweise die Ergebnisse von Rückschlüssen hinsichtlich der R-Daten (die Positionskoordinaten von effektiven Kandidaten und so weiter) werden ausgelesen (Schritt 21). Eine Tabelle, die im Programm-ROM 30' gespeichert ist, wird zu Rate gezogen, um die Beziehung zwischen dem festgelegten Muster und dem Bild, das erkannt werden soll, beispielsweise die Bezeichnung eines Geldscheins, zu ermitteln. Eine Feststellung hinsichtlich dessen wird durchgeführt, zu welcher Kategorie das Muster in dem verarbeiteten Bild zu gehören scheint. Die Regeln werden dann ausgelesen (Schritt 22), die die Beziehung zwischen den Positionskoordinaten des unter den R-Daten erkannten Musters und jenen des unter den G-Daten erkannten Musters sowie jene zwischen den Positionskoordinaten desselben Musters in den R-Daten und jenen des unter den B- Daten erkannten Musters definieren. Diese Beziehung legt fest, ob diese Daten das Bild darstellen, als welches dieses Muster festgestellt wurde.
  • Für das in Fig. 26 gezeigte zu erkennende festgelegte Muster sind diese Regeln Aussagen wie z. B.: "Wenn für ein bestimmtes zu erkennendes festgelegtes Muster (das eine Banknote ist) ein Muster wie das Muster (1) in den R-Daten vorhanden ist, ist ein Muster wie das Muster (3) in den G- Daten vorhanden. Dieses Muster weist einen Bezugspunkt auf, der im Abstand D vom Bezugspunkt (d. h. von der festgelegten Position) des Musters (1) entfernt ist". "Wenn für ein bestimmtes zu erkennendes festgelegtes Muster (das eine Banknote ist) ein Muster wie das Muster (3) in den G-Daten vorhanden ist, ist ein Muster wie das Muster (4) in den B- Daten vorhanden. Dieses Muster weist einen Bezugspunkt auf, der im Abstand D' vom Bezugspunkt, d. h. von der festgelegten Position, des Musters (3) entfernt ist". Die Regeln in diesem Beispiel sind selbst im Fall eines Drucküberdeckungsfehlers gültig, da beide Abstände hinsichtlich einer festen Beziehung (für D jener zwischen D1 und D2; für D' jener zwischen D3 und D4) gegeben sind.
  • Als nächstes werden die Bezugspunkte in den R-, G- und B- Daten aller effektiven Kandidaten aus dem Speicher 65 ausgelesen. Eine Beurteilung wird auf der Basis der im vorstehend erörterten Schritt ausgelesenen Regeln hinsichtlich dessen durchgeführt, ob die verarbeiteten Bilddaten jene des zu erkennenden festgelegten Musters sind oder nicht. Insbesondere wird der Abstand von Punkt zu Punkt aus den Bezugspositionen erhalten, die zu irgendwelchen zwei Datensätzen gehören, und eine Beurteilung hinsichtlich dessen, ob dieser Abstand einer der vorstehend erwähnten festen Abstände ist, wird durchgeführt (Schritt 23).
  • Fig. 25 zeigt den Ablauf der Beurteilungsverarbeitung für die Beurteilung (Schritt 23), wenn die zwei vorstehend gegebenen Regeln verwendet werden. Zuerst werden die Bezugspunkte ((xri, yri) und (xgj, ygj), wobei i = 0, 1, ..., und j = 0, 1, ...) der gewonnenen Muster, die in den R- und G-Daten erkannt wurden, ausgelesen. Auf der Basis dieser Bezugspunkte werden Abstände für jede Kombination von Punkten erhalten. Dann wird eine Beurteilung hinsichtlich dessen, ob diese Daten das zu erkennende festgelegte Muster darstellen, durch Feststellen, ob diese Abstände die nachstehend gegebene Formel erfüllen, durchgeführt (Schritte 23a bis 23d).
  • D&sub1; ≤ [(xgj - xri)² + (ygj - yri)²]1/2 ≤ D2
  • Wenn die vorstehend gegebene Bedingung erfüllt ist, werden die Bezugspunkte ((xbk, Ybk), wobei k = 0, 1, ...) des gewonnenen Musters, das in den B-Daten erkannt wurde, ausgelesen. Auf der Basis dieser Bezugspunkte werden für jede Kombination von Punkten Abstände erhalten. Dann wird eine Beurteilung hinsichtlich dessen, ob diese Daten das festgelegte Muster darstellen, durch Feststellen, ob diese Abstände das nachstehend gegebene Kriterium erfüllen, durchgeführt (Schritte 23e bis 23g).
  • D&sub3; ≤ [(xbk - xgj)² + (ybk - ygj)²]1/2 ≤ D&sub4;
  • Wenn die vorstehend gegebene Bedingung auch erfüllt ist, wird die Beurteilung durchgeführt, daß das Muster, d. h. das zu erkennende festgelegte Muster, gefunden wurde, und ein festgelegtes Signal wird ausgegeben (Schritte 23f und 24). Alternativ wäre es möglich, die Abstände D und D' als unscharfe Werte zu definieren und die vorstehend erörterte Beurteilung als unscharfen Rückschluß durchzuführen.
  • Selbst wenn die R-, G- und B-Daten beim zweiten Ausführungsbeispiel in feldsequentieller Weise ausgelesen werden, werden die festgelegten Daten (erkannten Muster) gewonnen, nachdem jeder Satz von Bilddaten gesandt wird. Da die im Speicher 65 gespeicherten Daten codierte Daten hinsichtlich der Koordinaten der Bezugspunkte der erkannten Muster sind, ist nur eine kleine Speicherkapazität erforderlich. Da Rückschlüsse durch Mustervergleich während des Auslesens der R-, G- und B-Bilddaten durchgeführt werden (mit anderen Worten, es besteht kein Bedarf zu warten, bis alle Bilddaten ausgelesen wurden), kann die Endbeurteilung hinsichtlich dessen, ob dies tatsächlich das zu erkennende festgelegte Muster ist, schnell durchgeführt werden. Bei diesem Beispiel wurden RGB-Daten verwendet; die Erfindung ist jedoch gleichermaßen auf CMY-Daten oder auf verschiedene andere Datentypen anwendbar.
  • Die Fig. 27 und 28(A)-28(B) zeigen die Komponenten eines dritten Ausführungsbeispiels einer Bildverarbeitungsvorrichtung, die gemäß dieser Erfindung ausgelegt ist. Das dritte Ausführungsbeispiel stellt eine Verbesserung der Mustervergleichsvorrichtung 3 in der in Fig. 1 dargestellten grundlegenden Konfiguration und insbesondere in dem in der CPU 30 verwendeten Beurteilungsschema dar. Die vorstehend beschriebene Vergleichsoperation zum Erkennen eines gegebenen Bildes beinhaltete das Wählen von einem als Bezugsmuster, das am deutlichsten ein Merkmal ausdrückte, und dann Beurteilen, ob ein Muster, das gefunden wurde, ein Bild enthielt, das diesem Bezugsmuster ähnelte. Wenn ein einzelner Satz von Bilddaten beurteilt wird, werden bei diesem Ausführungsbeispiel eine Anzahl von vorher ausgewählten Bezugsmustern an verschiedenen Orten verwendet und eine Gesamtbeurteilung unter Verwendung von ODER- oder UND- Bedingungen wird hinsichtlich des Ähnlichkeitsgrades der Bilddaten bezüglich jedes der Bezugsmuster durchgeführt.
  • Der Ablauf der Verarbeitung, die von der CPU 30 in Fig. 10 durchgeführt wird, ist in Fig. 27 dargestellt. Die zwei in Fig. 28(A) gezeigten festgelegten Muster A&sub0; und B&sub0; werden zum Erzeugen der Merkmalszählwertdaten verwendet, die das zu erkennende Bild festlegen. Diese Muster werden im voraus als Bezugsmuster Ao und B&sub0; gespeichert, die in den Fig. 28 (B) und 28 (C) dargestellt sind.
  • Die potentiellen Übereinstimmungen, d. h. Muster, die zum zu erkennenden festgelegten Muster ähnlich sind, die von der Gewinnungsvorrichtung 2 gewonnen wurden, werden erhalten und jedes wird durch die Mustervergleichsvorrichtung 3 mit dem Bezugsmuster verglichen, welche dann seinen Ähnlichkeitsgrad zum Ziel ermittelt. Wenn eine der potentiellen Übereinstimmungen einen Ähnlichkeitsgrad zum Bezugsmuster aufweist, der einen festgelegten Bezugswert übersteigt, wird angenommen, daß dieser Kandidat das zu erkennende festgelegte Muster enthält, und ein festgelegtes Steuersignal oder ein Signal, das den Ähnlichkeitsgrad angibt, kann ausgegeben werden (siehe Schritt 27). Bei diesem Beispiel wurden verschiedene Schwellenwerte (Th (A&sub0;) und Th (B&sub0;)) für den Ähnlichkeitsgrad zu den Bezugsmustern A&sub0; und B&sub0; verwendet. Es wäre auch möglich, denselben Schwellenwert zu verwenden.
  • Wir wollen annehmen, daß das verarbeitete Muster aus einem Teil des in Fig. 29 gezeigten Musters B' besteht. Wir wollen ferner annehmen, daß der Ähnlichkeitsgrad zwischen dem Muster B' und dem Bezugsmuster B&sub0; infolge eines Druckfehlers niedriger ist als er sein sollte. Da der Ähnlichkeitsgrad des Musters B' niedrig ist, selbst wenn es sich tatsächlich um das zu erkennende Bild handelt, könnte es übersehen werden, wenn nur das Bezugsmuster B zum Durchführen einer Beurteilung verwendet werden würde, wie bei den vorherigen Vorrichtungen. Da dieses Ausführungsbeispiel zwei Bezugsmuster verwendet, und der Ähnlichkeitsgrad des anderen Musters A' zu seinem Bezugsmuster A&sub0; hoch ist, kann das Bild sorgfältig erkannt werden.
  • Bei diesem Ausführungsbeispiel wurde beurteilt, daß das Bild das festgelegte Muster enthält, wenn ein hoher Ähnlichkeitsgrad bezüglich eines der Bezugsmuster gefunden wurde. Die Erfindung ist jedoch nicht nur auf diesen Fall begrenzt. Es wäre beispielsweise möglich, zu schlußfolgern, daß das Bild das festgelegte Muster enthält, unter Verwendung von drei oder mehr Bezugsmustern und durch Feststellen, daß der Ähnlichkeitsgrad zum Bezugsmuster einen festgelegten Bezugswert für eine Anzahl von diesen Mustern (ein Wert, der kleiner ist als die Gesamtzahl von Bezugsmustern) übersteigt.
  • Ein weiteres annehmbares Schema würde darin bestehen, mindestens zwei Werte, einen hohen und einen niedrigen, als Bezüge festzusetzen, durch die der Ähnlichkeitsgrad zu beurteilen ist. Wenn der Ähnlichkeitsgrad den niedrigen Wert bezüglich aller oder einer Mehrheit der Bezugsmuster übersteigen würde, und wenn der Ähnlichkeitsgrad den hohen Wert bezüglich zumindest eines der Bezugsmuster übersteigen würde, könnte geschlußfolgert werden, daß das zu erkennende festgelegte Muster gefunden wurde.
  • Bei diesem dritten Ausführungsbeispiel, das vorstehend erörtert wurde, wird die Beurteilung dessen, ob das Bild das festgelegte Muster enthält oder nicht, d. h. dasjenige, das wir zu erkennen hoffen, durch Beurteilen dessen, ob es ein Muster enthält, dessen Ähnlichkeitsgrad zu einem bestimmten Bezugsmuster einen festgelegten Wert übersteigt, oder nicht, durchgeführt. Ein weiteres Ausführungsbeispiel könnte die erste Beurteilung nicht nur auf dem Ähnlichkeitsgrad zu einer Anzahl von Bezugsmustern, sondern auch auf der räumlichen Beziehung zwischen den Mustern, die gefunden wurden, basieren lassen.
  • Wir wollen annehmen, daß die Bilddaten, die wir zu erkennen hoffen, die in Fig. 30 gezeigten sind. Die Bezugsmuster A und B sind identisch zu den in den Fig. 28(B) und 28(C) gezeigten. Bei dem vorstehend erörterten Ausführungsbeispiel würden sowohl die Muster C und D in Fig. 31 als auch die Muster E und F in Fig. 32 einen hohen Ähnlichkeitsgrad zu den Bezugsmustern A und B zeigen. Sowohl von dem in Fig. 31 gezeigten Bild als auch dem in Fig. 32 gezeigten würde somit angenommen werden, daß es das zu erkennende Bild ist, da beide das festgelegte Muster enthalten. Folglich würde die im Kopierer durchgeführte Verarbeitung verboten werden. Sowohl die in Fig. 31 gezeigten Bilddaten als auch die in Fig. 32 gezeigten unterscheiden sich jedoch vom zu erkennenden Bild, und an sich sollte deren Kopieren zugelassen werden.
  • Wenn eine Beurteilung unter Verwendung einer Anzahl von Bezugsmustern als Basis durchgeführt wird, und einige Muster erkannt werden, deren Ähnlichkeitsgrad einen gegebenen Wert übersteigt, müssen wir die Orientierung jedes Musters, das wir erkannt haben, sowie den Abstand zwischen jedem Paar erhalten. Eine Endbeurteilung kann dann durch Feststellen, ob diese Werte innerhalb desselben Bereichs liegen wie jene eines Bezugsmusters oder nicht, durchgeführt werden.
  • Insbesondere erhalten wir im voraus die Formen der in den Bilddaten zu erkennenden Bezugsmuster sowie den Abstand zwischen diesen (Absolutwert A-B) und ihre Winkel qA und qB bezüglich der parallelen Bezugslinien Z (die ihre Orientierung angeben), und wir speichern diese Daten.
  • Die Folge von Schritten bei einer Beurteilung, die die Orientierung als Kriterium verwendet, ist in Fig. 33 gezeigt. Zuerst wird der Ähnlichkeitsgrad jedes von der Vorrichtung 2 gewonnenen Musters bezüglich sowohl des Bezugsmusters A als auch B ermittelt. Beurteilungen hinsichtlich dessen, ob diese Werte größer als die Schwellenwerte ThA0 und ThB0 sind, werden durchgeführt (Schritte 30 bis 32).
  • Wenn der Ähnlichkeitsgrad beider Muster größer ist als ein gegebener Wert, werden die Winkel qC und qD für die gewonnenen Muster C und D erhalten und die Differenz zwischen ihnen wird auch erhalten (Schritte 33 bis 35). Eine Beurteilung hinsichtlich dessen, ob diese Differenz ungefähr gleich der Differenz zwischen den Winkeln der Bezugsmuster ist, wird durchgeführt. Wenn dies der Fall ist, wird das Bild als das gesuchte beurteilt und ein festgelegtes Signal wird ausgegeben (Schritte 36 bis 38).
  • Da die Differenz zwischen den Winkeln der Muster, die in Fig. 31 gezeigt sind, nicht gleich dem Bezugswert ist, wird das Bild in Fig. 31 nicht versehentlich als dasjenige, das wir suchen, angenommen.
  • Die Folge von Schritten bei einer Beurteilung, die den Abstand zwischen Mustern als Kriterium verwendet, ist in Fig. 34 dargestellt. Zuerst wird der Ähnlichkeitsgrad jedes von der Vorrichtung 2 gewonnenen Musters bezüglich sowohl des Bezugsmusters A als auch B ermittelt.
  • Beurteilungen hinsichtlich dessen, ob diese Werte größer sind als die Schwellenwerte ThA0 und ThB0, werden durchgeführt (Schritte 40 bis 42).
  • Wenn beide Werte ihre Schwellen übersteigen, wird der Abstand zwischen den gewonnenen Mustern E und F erhalten (Absolutwert E-F) (Schritte 43 bis 45). Eine Beurteilung hinsichtlich dessen, ob der Abstand zwischen diesen Mustern ungefähr gleich dem Abstand zwischen den Bezugsmustern ist, wird durchgeführt. Wenn dies der Fall ist, wird das Bild als das gesuchte beurteilt, und ein festgelegtes Signal wird ausgegeben (Schritte 46 bis 48).
  • Da der Abstand zwischen den Mustern in Fig. 32 nicht gleich dem Bezugswert ist, wird das Bild in Fig. 32 nicht versehentlich als dasjenige, das wir suchen, angenommen.
  • Die Frage, welche Art Daten zu verwenden ist, wenn eine Beurteilung auf Daten hinsichtlich der räumlichen Beziehung der Muster sowie ihrem Ähnlichkeitsgrad zu Bezugsmustern basieren soll, wie vorstehend erörtert, wird dem Benutzer überlassen. Entweder die Orientierung oder der Abstand kann verwendet werden, oder beide können zusammen verwendet werden, oder noch ein drittes Kriterium kann zur Beurteilungsverarbeitung hinzugefügt werden. Die relevante Verarbeitung wird von der CPU 30 durchgeführt, die in Fig. 10 dargestellt ist.
  • Die vorstehend erörterten Ausführungsbeispiele waren alle Vorrichtungen, die sich zur Verwendung in Kopiergeräten eignen. Die Erfindung ist jedoch nicht nur auf diese Anwendung begrenzt. Sie eignet sich auch zur Verwendung in Farbdruckern, Faxgeräten, Datenübertragungsvorrichtungen und verschiedenen anderen Arten einer Ausrüstung.
  • Die Bildverarbeitungsvorrichtung dieser Erfindung und das Kopiergerät, in dem sie verwendet wird, weisen niedrigere Kosten auf als ihre Vorgänger, da sie nur einen Speicher mit kleiner Kapazität benötigen. Diese Verbesserung ist ein Ergebnis der Tatsache, daß die festgelegten Muster, die erkannt werden, nur einen Teil des gesamten Bildes darstellen. Somit können diese Muster ungeachtet der Größe (d. h. der äußeren Abmessungen) des Dokuments, das nicht kopiert (oder gedruckt) werden darf, erkannt werden. Die Erkennung basiert darauf, ob diese festgelegten Muster gefunden werden können oder nicht. Die gesamte Verarbeitung von der Erkennung von möglichen festgelegten Mustern bei der ersten Abtastung bis zur Ermittlung ihres Ähnlichkeitsgrades zu einem Bezugsmuster kann in Echtzeit durchgeführt werden. Das festgelegte Muster wird selbst bei einem Kopiergerät mit einzelner Abtastung nicht übersehen, und die Erkennungsrate ist hoch.
  • Wenn für jede Suche das empfangene Bild abgestuft wird und potentielle Übereinstimmungen mit dem abgestuften Bild (oder Muster) verglichen werden, können die Bilddaten mit dem zu erkennenden festgelegten Muster schnell und genau gewonnen werden. Wenn, nachdem die Muster unter Verwendung des abgestuften Bildes erkannt wurden, eines von ihnen auf der Basis der räumlichen Beziehungen unter ihnen zur Ausgabe ausgewählt wird, ist das Ergebnis der Verwendung des abgestuften Bildes zum Vergleichen jenes, daß störende Daten, d. h. Daten, die nicht zu einem zu erkennenden festgelegten Muster gehören, verworfen werden können.
  • Selbst wenn irrelevante Daten gesammelt werden, können sie von einer anschließenden Verarbeitung ausgeschlossen werden, wie z. B. daß sie gewonnen oder auf die Ähnlichkeit mit einem Bezugsmuster ausgewertet werden. Dies ermöglicht uns, die Speicherkapazität zu verringern und die Verarbeitungsgeschwindigkeit zu erhöhen.
  • Da die Gewinnungsvorrichtung die Fähigkeit aufweist, bestimmte festgelegte Positionen, wie z. B. die Spitze einer Ecke oder die Mitte eines Kreises, in dem Muster, das erkannt wurde, zu erkennen, können diese Positionen in der ersten Stufe der Verarbeitung genau festgelegt werden. Dies ermöglicht eine virtuell perfekte Überdeckung des erkannten Musters mit dem Bezugsmuster, wenn ein Ähnlichkeitsgrad ermittelt werden soll. Wenn keine festgelegte Position erkannt werden kann, kann die Beurteilung durchgeführt werden, daß das verarbeitete Bild nicht das zu erkennende festgelegte Muster sein kann. Der Ähnlichkeitsgrad muß dann nicht berechnet werden, was zu einer weiteren Steigerung der Verarbeitungsgeschwindigkeit führt.
  • Da die Vorrichtung, die den Ähnlichkeitsgrad berechnet, unter Verwendung einer Anzahl von Punkten von unscharfem Wissen, die aus einem der im voraus festgesetzten Bezugsmuster erzeugt werden, unscharfe Rückschlüsse zieht, können fehlerhafte Beurteilungen, die sich daraus ergeben, daß das Bild beim Drucken leicht verschoben wird, ohne Verlust der Verarbeitungsgeschwindigkeit wirksam vermieden werden.
  • Da die Vorrichtung, die das Muster erkennt, die Vorrichtung, die das Muster gewinnt, und die Vorrichtung, die seinen Ähnlichkeitsgrad zu einem Bezug berechnet, alle die Daten verarbeiten, sobald ein Datensatz für eine Farbkomponente in feldsequentieller ankommt; und da eine Beurteilung auf der räumlichen Beziehung der potentiellen Übereinstimmungen, die in diesen Daten erkannt werden, basiert, können die Muster dann verglichen werden, sobald ein Datensatz empfangen wird, selbst wenn die Daten in RGB-, CMY- oder irgendeinen anderen Satz von Komponenten zerlegt werden. Da die räumliche Beziehung der Muster zueinander ein Kriterium für einen hohen Ähnlichkeitsgrad ist, besteht kein Bedarf, zu warten, bis die späteren Felder des Bildes ausgelesen werden, so daß alle Farbdaten gesandt werden. Die verschiedenen Arten der Verarbeitung, die zum Durchführen von Beurteilungen erforderlich sind, werden parallel mit dem Auslesen von Daten für jede Farbe durchgeführt. Folglich können Beurteilungen mit hoher Geschwindigkeit erzeugt werden und ein Speicher mit kleiner Kapazität kann verwendet werden.
  • Da Bezugsmuster bereitgestellt werden, die einer Anzahl von Mustern in den Bilddaten für ein einzelnes Bild entsprechen, und da Beurteilungen auf allen diesen Bezugsmustern basieren, kann das gewünschte Bild sorgfältig erkannt werden, selbst wenn der Ähnlichkeitsgrad eines Teils entsprechend einem Bezugsmuster infolge einer Ungleichmäßigkeit oder einer Veränderung des Drucks niedrig ist. Dies kann durch Vergleichen eines weiteren erkannten Musters mit seinem Bezugsmuster durchgeführt werden. Die räumlichen Beziehungen unter einer Anzahl von Bezugsmustern werden als Kriterium für eine Beurteilung verwendet. Dies stellt sicher, daß ein Bild, das ein Muster enthält, das zu einem Bezugsmuster identisch ist, aber sich in einem anderen Teil des Bildes befindet, nicht versehentlich als das gesuchte Bild identifiziert wird.
  • Durch Installieren dieser Bildverarbeitungsvorrichtung in einem Kopiergerät können wir die Ausgabe von Kopien von Dokumenten, deren Reproduktion illegal ist, wie z. B. Banknoten und verkäuflichen Wertpapieren, absolut verhindern.

Claims (10)

1. Bildverarbeitungsvorrichtung zum Identifizieren eines Eingangsbildes, wobei die Bildverarbeitungsvorrichtung folgendes umfaßt:
ein Erzeugungsmittel zum Erzeugen eines abgestuften Bildes aus dem Eingangsbild, wobei das abgestufte Bild eine geringere Auflösung aufweist als das Eingangsbild;
ein Feststellungsmittel (1) zum Feststellen, ob das abgestufte Bild ein festgelegtes Muster enthält, wobei das Feststellungsmittel (1) ein Suchmittel (18) zum Absuchen des abgestuften Bildes nach dem festgelegten Muster umfaßt;
ein Gewinnungsmittel (2, 2') zum Gewinnen eines Teils des Eingangsbildes, wenn das Feststellungsmittel (1) feststellt, daß das abgestufte Bild das festgelegte Muster enthält;
ein Vergleichsmittel (3, 3') zum Vergleichen des gewonnenen Teils des Eingangsbildes mit einem Bezugsmuster, um einen Ähnlichkeitsgrad zwischen dem gewonnenen Teil des Eingangsbildes und dem Bezugsmuster zu ermitteln, dadurch gekennzeichnet, daß
das Suchmittel eine ungefähre Bezugsposition und -orientierung des festgelegten Musters festlegt;
das Gewinnungsmittel (2, 2') einen ersten Teil des Eingangsbildes entsprechend dem festgelegten Muster gemäß der ungefähren Bezugsposition und -orientierung gewinnt, eine genaue Bezugsposition und -orientierung des festgelegten Musters aus dem gewonnenen Teil des Eingangsbildes festlegt, und einen zweiten Teil des Eingangsbildes gemäß der genauen Bezugsposition und -orientierung gewinnt,
wobei der zweite gewonnene Teil des Eingangsbildes innerhalb des ersten gewonnenen Teils des Eingangsbildes enthalten ist; und
das Vergleichsmittel (3, 3') den zweiten gewonnenen Teil des Eingangsbildes mit dem Bezugsmuster vergleicht, um einen Ähnlichkeitsgrad zwischen dem zweiten gewonnenen Teil des Eingangsbildes und dem Bezugsmuster, das vom Feststellungsmittel festgestellt wird, zu ermitteln.
2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei das Vergleichsmittel (3, 3') eine Einheit (35, 35') für einen unscharfen Rückschluß mit einer unscharfen Mustervergleichslogik und einem Speicher (37, 37'), in dem unscharfes Wissen gespeichert ist, umfaßt.
3. Bildverarbeitungsvorrichtung nach den Ansprüchen 1 oder 2, wobei:
das Feststellungsmittel (1) feststellt, ob das abgestufte Bild eine Vielzahl von festgelegten Mustern enthält;
das Gewinnungsmittel (2, 2'), wenn das Feststellungsmittel (1) feststellt, daß das abgestufte Bild die Vielzahl von festgelegten Mustern enthält, Teile des Eingangsbildes entsprechend der Vielzahl von festgelegten Mustern gewinnt; und
das Vergleichsmittel (3, 3') die gewonnenen Teile des Eingangsbildes mit einer Vielzahl von Bezugsmustern vergleicht, um einen Ähnlichkeitsgrad zwischen den gewonnen Teilen des Eingangsbildes und der Vielzahl von Bezugsmustern zu ermitteln.
4. Bildverarbeitungsvorrichtung nach Anspruch 3, welche ferner ein Mittel zum Ermitteln einer räumlichen Beziehung zwischen der Vielzahl von Bezugsmustern umfaßt.
5. System zum Kopieren, umfassend:
ein Abtastmittel zum Abtasten eines Originalbildes, um ein Eingangsbild zu erzeugen;
eine Signalverarbeitungseinheit mit einem Farbverarbeitungsmittel zum Erzeugen von Farbkomponentendaten aus dem Eingangsbild und einer Bildverarbeitungsvorrichtung wie in einem der Ansprüche 1 bis 4 dargelegt; und
ein Druckmittel zum Drucken einer Kopie des Eingangsbildes aus den Farbkomponentendaten, die von der Farbverarbeitungsschaltung erzeugt werden.
6. System nach Anspruch 5 mit einem Steuersignalisiermittel zum Veranlassen, daß das Farbverarbeitungsmittel eine Kopieverhinderungsroutine ausführt.
7. Verfahren zum Identifizieren eines Eingangsbildes, wobei das Verfahren die folgenden Schritte umfaßt:
Erzeugen eines abgestuften Bildes aus dem Eingangsbild, wobei das abgestufte Bild eine geringere Auflösung aufweist als das Eingangsbild;
Feststellen, ob das abgestufte Bild ein festgelegtes Muster enthält, wobei der Feststellungsschritt den Schritt des Absuchens des abgestuften Bildes nach dem festgelegten Muster umfaßt;
Gewinnen eines Teils des Eingangsbildes entsprechend dem festgelegten Muster, wenn das abgestufte Bild das festgelegte Muster enthält;
Vergleichen des gewonnen Teils des Eingangsbildes mit einem Bezugsmuster, um einen Ähnlichkeitsgrad zwischen dem gewonnenen Teil des Eingangsbildes und dem Bezugsmuster zu ermitteln, dadurch gekennzeichnet, daß
der Suchschritt den Schritt des Festlegens einer ungefähren Bezugsposition und -orientierung des festgelegten Musters umfaßt;
der Gewinnungsschritt die Schritte des Gewinnens eines ersten Teils des Eingangsbildes entsprechend dem festgelegten Muster gemäß der ungefähren Bezugsposition und -orientierung, des Festlegens einer genauen Bezugsposition und -orientierung des festgelegten Musters aus dem gewonnenen Teil des Eingangsbildes, und des Gewinnens eines zweiten Teils des Eingangsbildes gemäß der genauen Bezugsposition und -orientierung umfaßt,
wobei der zweite gewonnene Teil des Eingangsbildes innerhalb des ersten gewonnenen Teils des Eingangsbildes enthalten ist; und
der Vergleichsschritt den Schritt des Vergleichens des zweiten gewonnenen Teils des Eingangsbildes mit dem Bezugsmuster, um einen Ähnlichkeitsgrad zwischen dem zweiten gewonnenen Teil des Eingangsbildes und dem Bezugsmuster, das vom Feststellungsmittel festgestellt wird, zu ermitteln, umfaßt.
8. Verfahren nach Anspruch 7, wobei der Vergleichsschritt den Schritt des Vergleichens des gewonnenen Teils des Eingangsbildes mit dem Bezugsmuster unter Verwendung einer unscharfen Mustervergleichslogik umfaßt.
9. Verfahren nach den Ansprüchen 7 oder 8, wobei:
der Feststellungsschritt den Schritt des Feststellens, ob das abgestufte Bild eine Vielzahl von festgelegten Mustern enthält, umfaßt;
der Gewinnungsschritt den Schritt des Gewinnes von Teilen des Eingangsbildes entsprechend der Vielzahl von festgelegten Mustern umfaßt, wenn das abgestufte Bild die Vielzahl von festgelegten Mustern enthält; und
der Vergleichsschritt den Schritt des Vergleichens der gewonnenen Teile des Eingangsbildes mit einer Vielzahl von Bezugsmustern, um einen Ähnlichkeitsgrad zwischen den gewonnenen Teilen des Eingangsbildes und der Vielzahl von Bezugsmustern zu ermitteln, umfaßt.
10. Verfahren nach einem der Ansprüche 7 bis 9, welches ferner den Schritt des Ermittelns einer räumlichen Beziehung zwischen der Vielzahl von Bezugsmustern umfaßt.
DE69429847T 1993-10-14 1994-10-14 Bildverarbeitungsgerät und Verfahren zur Erkennung eines eingegebenen Bildes und Fotokopierer, der dasselbe einschliesst Expired - Fee Related DE69429847T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5281821A JP3057981B2 (ja) 1992-12-25 1993-10-14 画像処理装置及びそれを用いた複写機

Publications (2)

Publication Number Publication Date
DE69429847D1 DE69429847D1 (de) 2002-03-21
DE69429847T2 true DE69429847T2 (de) 2002-11-07

Family

ID=17644470

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69429847T Expired - Fee Related DE69429847T2 (de) 1993-10-14 1994-10-14 Bildverarbeitungsgerät und Verfahren zur Erkennung eines eingegebenen Bildes und Fotokopierer, der dasselbe einschliesst

Country Status (3)

Country Link
US (1) US6091844A (de)
EP (1) EP0649114B1 (de)
DE (1) DE69429847T2 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549638B2 (en) 1998-11-03 2003-04-15 Digimarc Corporation Methods for evidencing illicit use of a computer system or device
US6424725B1 (en) * 1996-05-16 2002-07-23 Digimarc Corporation Determining transformations of media signals with embedded code signals
US6408082B1 (en) * 1996-04-25 2002-06-18 Digimarc Corporation Watermark detection using a fourier mellin transform
US7113615B2 (en) 1993-11-18 2006-09-26 Digimarc Corporation Watermark embedder and reader
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
US7286684B2 (en) 1994-03-17 2007-10-23 Digimarc Corporation Secure document design carrying auxiliary machine readable information
US6968057B2 (en) 1994-03-17 2005-11-22 Digimarc Corporation Emulsion products and imagery employing steganography
US8144368B2 (en) * 1998-01-20 2012-03-27 Digimarc Coporation Automated methods for distinguishing copies from original printed objects
JPH08340443A (ja) * 1995-06-12 1996-12-24 Omron Corp 偽造可能性情報生成方法及び装置、並びに、それらを利用した機器
JP3060902B2 (ja) * 1995-06-30 2000-07-10 オムロン株式会社 画像処理装置及び画像処理方法
JPH09274660A (ja) * 1996-04-05 1997-10-21 Omron Corp 画像認識方法及び装置並びにそれを搭載した複写機及びスキャナ
US6661906B1 (en) * 1996-12-19 2003-12-09 Omron Corporation Image creating apparatus
JPH11126259A (ja) * 1997-06-02 1999-05-11 Matsushita Electric Ind Co Ltd 画像検出方法、画像検出装置、画像処理方法、画像処理装置、及び媒体
US6198832B1 (en) * 1998-01-09 2001-03-06 U.S. Philips Corporation Embedding and detecting a watermark in images
JP3095071B2 (ja) * 1998-04-21 2000-10-03 日本電気株式会社 パタンマッチング符号化装置、及びその符号化方法
US6978036B2 (en) * 1998-07-31 2005-12-20 Digimarc Corporation Tamper-resistant authentication techniques for identification documents
US6952484B1 (en) * 1998-11-30 2005-10-04 Canon Kabushiki Kaisha Method and apparatus for mark detection
EP2282509A3 (de) * 1999-04-06 2011-05-11 Canon Kabushiki Kaisha Abtaster, Drucker, Speichermedium und Bildverarbeitungsverfahren
US6317524B1 (en) * 1999-04-29 2001-11-13 Xerox Corporation Anti-counterfeit detection method
US6580820B1 (en) * 1999-06-09 2003-06-17 Xerox Corporation Digital imaging method and apparatus for detection of document security marks
US6553136B1 (en) 1999-10-28 2003-04-22 Hewlett-Packard Company System and method for counterfeit protection
US7474787B2 (en) * 1999-12-28 2009-01-06 Minolta Co., Ltd. Apparatus and method of detecting specified pattern
EP1122939A3 (de) * 2000-01-31 2003-08-27 Canon Kabushiki Kaisha Bildverarbeitungsgerät
GB2379312A (en) 2000-06-09 2003-03-05 British Broadcasting Corp Generation subtitles or captions for moving pictures
US8094869B2 (en) 2001-07-02 2012-01-10 Digimarc Corporation Fragile and emerging digital watermarks
FR2834397A1 (fr) * 2001-12-28 2003-07-04 St Microelectronics Sa Sous- echantillonnage de donnees images pixelisees
US7974495B2 (en) * 2002-06-10 2011-07-05 Digimarc Corporation Identification and protection of video
KR100765749B1 (ko) * 2005-04-26 2007-10-15 삼성전자주식회사 이진영상 압축장치 및 방법
KR100727938B1 (ko) * 2005-06-08 2007-06-14 삼성전자주식회사 화상형성 방지 문서의 검출장치 및 방법
EP1732030A1 (de) * 2005-06-10 2006-12-13 BRITISH TELECOMMUNICATIONS public limited company Mustervergleich
CN101248457B (zh) * 2005-07-28 2011-07-27 英国电讯有限公司 图像分析方法
US20070041628A1 (en) * 2005-08-17 2007-02-22 Xerox Corporation Detection of document security marks using run profiles
EP1798961A1 (de) * 2005-12-19 2007-06-20 BRITISH TELECOMMUNICATIONS public limited company Fokussierungsverfahren
JP4662873B2 (ja) * 2006-03-23 2011-03-30 Hoya株式会社 パターンマッチングシステム
DE102007019107A1 (de) * 2007-04-23 2008-10-30 Giesecke & Devrient Gmbh Verfahren und Vorrichtung zur Prüfung von Wertdokumenten
US20080317355A1 (en) * 2007-06-21 2008-12-25 Trw Automotive U.S. Llc Method and apparatus for determining characteristics of an object from a contour image
US8115966B2 (en) 2007-09-03 2012-02-14 Canon Kabushiki Kaisha Method of embedding a plurality of different two-dimensional codes in an image
RU2449376C2 (ru) * 2007-09-07 2012-04-27 Глори Лтд. Устройство распознавания бумажного документа и способ распознавания бумажного документа
CN101796550B (zh) * 2007-09-07 2012-12-12 光荣株式会社 纸张类识别装置和纸张类识别方法
JP5884293B2 (ja) * 2011-04-28 2016-03-15 富士通株式会社 類似文字コード群検索支援方法、類似候補抽出方法、類似候補抽出プログラムおよび類似候補抽出装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59186079A (ja) * 1983-04-06 1984-10-22 グローリー工業株式会社 紙幣識別装置
US4521909A (en) * 1983-10-04 1985-06-04 Wang Laboratories, Inc. Dual level pattern recognition system
ES2093768T3 (es) * 1988-05-13 1997-01-01 Canon Kk Aparato para el proceso de imagenes.
US5321470A (en) * 1988-05-13 1994-06-14 Canon Kabushiki Kaisha Apparatus with anti-forgery provision
JPH02148383A (ja) * 1988-11-30 1990-06-07 Fuji Electric Co Ltd 紙幣鑑別方法
JPH0640351B2 (ja) * 1988-12-20 1994-05-25 サン電子株式会社 Dpマッチングを利用したファジー推論による手書き文字認識装置
EP0382549B1 (de) * 1989-02-10 1995-11-29 Canon Kabushiki Kaisha Gerät zum Lesen oder Verarbeiten eines Bildes
JPH0514683A (ja) * 1991-07-01 1993-01-22 Canon Inc 画像処理装置
US5410613A (en) * 1991-07-17 1995-04-25 Matsushita Electric Industrial Co., Ltd. Pattern recognizing apparatus
US5479533A (en) * 1992-02-28 1995-12-26 Yamatake-Honeywell Co., Ltd. Pattern recognition apparatus and method using fuzzy logic
US5502575A (en) * 1992-08-06 1996-03-26 Matsushita Electric Industrial Co., Ltd. Imaging apparatus having a counterfeiting prevention function
JP3105679B2 (ja) * 1992-12-25 2000-11-06 株式会社日本コンラックス 紙幣識別装置
US5378916A (en) * 1993-02-17 1995-01-03 Xerox Corporation Color imaging charge-coupled array with multiple photosensitive regions

Also Published As

Publication number Publication date
EP0649114B1 (de) 2002-02-13
EP0649114A3 (de) 1995-09-27
US6091844A (en) 2000-07-18
DE69429847D1 (de) 2002-03-21
EP0649114A2 (de) 1995-04-19

Similar Documents

Publication Publication Date Title
DE69429847T2 (de) Bildverarbeitungsgerät und Verfahren zur Erkennung eines eingegebenen Bildes und Fotokopierer, der dasselbe einschliesst
DE69527450T2 (de) Bildverarbeitungsvorrichtung zur Identifikation eines Eingangsbildes und damit ausgerüstetes Kopiergerät
DE69610586T2 (de) Bildverarbeitungsverfahren und damit ausgerüstete Scanner und Drucker
DE4393748C2 (de) Vorlagen-Unterscheidungssystem
DE69709480T2 (de) Verfahren und Vorrichtung zur Bilderkennung und Kopier- und Abtastgerät hierfür
DE69511143T2 (de) Vorrichtung zum Verhindern von Fälschungen zum Gebrauch in Bildverarbeitungsanlagen
DE68926912T2 (de) Gerät zur Bildherstellung
DE69132970T2 (de) Bildverarbeitungsvorrichtung
DE69631707T2 (de) Bildverarbeitungsgerät zur Detektierung von Einfarbmarkierungen aus mehreren Farben und Bildverarbeitungsverfahren dafür
DE69227136T2 (de) Bildverarbeitungsgerät
DE69026159T2 (de) Bildverarbeitungsgerät
DE69724755T2 (de) Auffinden von Titeln und Photos in abgetasteten Dokumentbildern
DE69226825T2 (de) Verbessertes automatisches Segmentieren von Bildern
DE69032344T2 (de) Verfahren zum Messen von Neigungswinkeln
DE69328660T2 (de) Bildverarbeitungsvorrichtung
DE4202579C2 (de) System zur Bearbeitung von Dokumenten
DE69331041T2 (de) Bildverarbeitungsvorrichtung und -verfahren sowie Bildlesevorrichtung
DE69910631T2 (de) Bildanpassung um die Empfindlichkeit auf Falschregistrierung zu vermindern
DE69323222T2 (de) Bildbearbeitungsverfahren und -vorrichtung
DE69323522T2 (de) Bildabtastvorrichtung und Verfahren zum Diskriminieren von speziellen Originalen
DE3809025A1 (de) Bereichserkennungseinrichtung
DE69030178T2 (de) Vorrichtung und verfahren zum aufbewahren von bildern
DE69329449T2 (de) Bildverarbeitungsvorrichtung und -verfahren
DE19904997A1 (de) Automatische Farbausfällung unter Verwendung von Luminanz/Chrominanz-Zwischenraumverarbeitung
DE69013100T2 (de) Farbbildverarbeitungsgerät.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee