-
Die vorliegende Erfindung bezieht sich auf ein Verfahren gemäß dem Oberbegriff des Anspruchs 1.
-
Auf dem Gebiet der Erfassung von Objektähnlichkeit wird typischerweise ein Zielobjekt mit einem Bezugsobjekt verglichen, um das Zielobjekt auf der Basis der Ähnlichkeit des Zielobjekts mit dem Bezugsobjekt zu identifizieren. Um die Ähnlichkeit des Zielobjekts mit dem Bezugsobjekt zu bestimmen, können die Ähnlichkeit von Farbe und Form verwendet werden. 2D-Abbildungen des Zielobjekts und des Bezugsobjekts, die beide 3D-Objekte sein können, werden analysiert, um das Zielobjekt dem Bezugsobjekt zuzuordnen.
-
Wenn für die Ähnlichkeitsermittlung nur die Farbähnlichkeit verwendet wird, ist aus den oben erwähnten Gründen eine ungenaue Ermittlung der Farbe wahrscheinlich. Ebenso ist die Formermittlung aufgrund der oben genannten Gründe anfällig für eine ungenaue Bestimmung der Form. Und selbst eine Kombination der obigen beiden Ähnlichkeitsermittlungsverfahren kann Objekte verschiedener Größen nicht effektiv erkennen. Außerdem kann durch die Ermittlung von 3D-Informationen allein nicht zwischen Objekten unterschieden werden.
-
Vor diesem Hintergrund ist es Aufgabe der vorliegenden Erfindung, ein Verfahren bereitzustellen, das Farb-, Form- und Größenermittlung verwendet, um zwischen Objekten zu unterscheiden.
-
Die Lösung dieser Aufgabe erfolgt durch die Merkmale des Anspruchs 1. Die Unteransprüche offenbaren bevorzugte Weiterbildungen der Erfindung.
-
Wie aus der folgenden detaillierten Beschreibung deutlicher zu ersehen sein wird, umfasst das beanspruchte Verfahren das Anzeigen einer Übereinstimmung zwischen einem Zielobjekt und einem Bezugsobjekt, wenn die Länge des Zielobjekts innerhalb, d. h. nicht oberhalb eines Längenschwellenwertes der Länge des Bezugsobjekts ist, die Breite des Zielobjekts innerhalb, d. h. nicht oberhalb eines Breitenschwellenwertes der Breite des Bezugsobjekts ist, die Tiefe des Zielobjekts innerhalb, d. h. nicht oberhalb eines Tiefenschwellenwertes der Tiefe des Bezugsobjekts ist, die Farbabweichung zwischen Farbeigenschaften des Zielobjekts und Farbeigenschaften des Bezugsobjekts innerhalb, d. h. nicht oberhalb eines Farbabweichungsschwellenwertes ist, und die Formabweichung zwischen den Formeigenschaften des Zielobjekts und den Formeigenschaften des Bezugsobjekts innerhalb, d. h. nicht oberhalb eines Formabweichungsschwellenwertes ist.
-
Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus nachfolgender Beschreibung eines Ausführungsbeispiels anhand der Zeichnungen.
-
Dabei zeigt:
-
1 eine Darstellung, die die Verwendung eines Formkontextes zur Bestimmung der Formähnlichkeit eines Zielobjekts und eines Bezugsobjekts veranschaulicht;
-
2 eine Darstellung, die die Verwendung einer Stereokamera veranschaulicht, um die Objektdisparität zu erlangen;
-
3 eine Darstellung, die ein Verfahren zum Suchen korrespondierender Punkte in einem Bezugsbild und einem Zielbild veranschaulicht;
-
4 eine Darstellung eines Messsystems zum Bestimmen die Tiefe eines Zielobjekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
-
5 ein Ablaufdiagramm eines Verfahrens zur Ausführung von Objekterkennung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
-
Die Farbähnlichkeit kann durch Verwendung von RGB-Histogrammen ermittelt werden. Zum Beispiel können RGB-Histogramme eines Bildes des Zielobjektes und eines Bildes des Bezugsobjektes verglichen werden, um die Bilder zuzuordnen. Wenn beleuchtungsunabhängige Farb-Deskriptoren zum Vergleichen der Histogramme verwendet werden, wird das Zuordnen noch effektiver. Jedoch stehen diesem Objekterkennungsverfahren vielfältige Herausforderungen gegenüber, was den Wechsel des Betrachtungspunktes, die Ausrichtung des Zielobjekts relativ zu dem Bezugsobjekt, Veränderungen in der Intensität der Beleuchtung, Veränderungen der Farbe der Beleuchtung, Rauschstörungen bzw. Verzerrungen und die Verdeckung des Zielobjekts einschließt, um einige zu nennen. Ein Verfahren vergleicht YCbCr-Histogramme der Bilder des Zielobjekts und des Bezugsobjekts unter Verwendung des Bhattacharyya-Abstands. Während die Farb-Histogramme ein Verfahren zur Verfügung stellen, um unterschiedliche Objekte auf der Basis ihrer jeweiligen Farbzusammenstellungen zu erkennen, kann die Farbähnlichkeit allein nicht das Problem ähnlicher Farbzusammenstellungen, die zu Objekten unterschiedlicher Form gehören, lösen.
-
Die Formähnlichkeit kann auf eine Anzahl von Weisen bestimmt werden, einschließlich der Verwendung des Formkontextes. Es ist Bezug zu nehmen auf
1, welche eine Darstellung ist, die die Verwendung des Formkontextes zur Bestimmung der Formähnlichkeit eines Zielobjekts
100 und eines Bezugsobjektes
101 veranschaulicht. Unter Verwendung von log-polaren Histogramm-Behältern (Histogramm-Bins)
150 können die mit den Koordinaten
110,
111,
112 jeweils korrespondierenden Formkontexte
120,
121,
122 berechnet werden. Die Formkontexte
120,
121,
122 sind log-polare Histogramme, die jeweils die Koordinaten
110,
111,
112 als einen Ursprung verwenden. Wie in
1 zu sehen ist, sind die mit den Koordinaten
110,
112 korrespondierenden Formkontexte
120,
122 einander sehr ähnlich, während der mit den Koordinaten
111 korrespondierende Formkontext
121 den Formkontexten
120,
122 unähnlich ist. Wie gezeigt, sind die log-polaren Histogramm-Behälter
150 in fünf konzentrischen Kreisen angeordnet, von denen jeder in 12 Segmente unterteilt ist. Somit kann jeder Formkontext
120,
121,
122 eine 12×5 Matrix sein, wobei jede deren Zellen Informationen über die Anzahl von Pixeln in dem korrespondierenden Segment enthält. Informationen über nahe gelegene Pixel können gegenüber Pixeln hervorgehoben werden, die sich von dem Ursprung weiter entfernt befinden, indem ein log-polarer
2 Raum für die log-polaren Histogramm-Behälter
150 verwendet wird. Durch die Wahl des Abstands von dem Ursprung zu dem äußersten Kreis, nämlich des Radiuses des äußersten Kreises, kann eine Diagonale eines kleinsten Rechtecks, das das Objekt (Bezugs- oder Zielobjekt) umschließen kann, gefunden werden. Dadurch wird sichergestellt, dass jedes Pixel des Objekts innerhalb des log-polaren Histogramm-Behälter
150 zu liegen kommt, unabhängig davon, welches Pixel als der Ursprung ausgewählt ist. Wenn Formkontexte gebildet werden, kann ein Formkontext für jedes Pixel gebildet werden, indem das Pixel als der Ursprung eingestellt wird, und berechnet wird, wie viele der übrigen Pixel in jedem Behälter (Bin) der log-polaren Histogramm-Behälter
150 fallen. Um die Ähnlichkeit zu bestimmen, wird unter der Annahme, dass Si(h) einen i
ten Formkontext des Bezugsobjekts darstellt, Rj(h) einen j
ten Formkontext des Zielobjekts darstellt und jeder Formkontext M Reihen umfasst, die Ähnlichkeit der Formkontexte wie folgt ausgedrückt:
-
Da für den Formvergleich Auswahlpixel verwendet werden, kann eine unterschiedliche Größe und Rotation des Zielobjekts relativ zum Bezugsobjekt toleriert werden. Jedoch kann es durch diese Abweichung unmöglich sein, zwischen Objekten mit ähnlicher Form aber unterschiedlicher Größe zu unterscheiden. Ferner kann die Formähnlichkeit allein nicht das Problem ähnlich geformter Objekte verschiedener Farben lösen.
-
Es ist Bezug zu nehmen auf
2, die eine Darstellung ist, die die Verwendung einer Stereokamera veranschaulicht, um die Objektdisparität zu erlangen. Durch die Verwendung einer Stereokamera, zum Beispiel einer linken Kamera und einer rechten Kamera, können 3D-Informationen des Zielobjekts gemessen werden, wobei eine Tiefendimension zusätzlich zu den ursprünglich für eine einzige Kamera verfügbaren 2D-Informationen hinzugefügt wird.
2 zeigt ein Stereokamera-System. Ein Punkt P ist ein Punkt im Raum mit den Koordinaten (X, Y, Z). Die Punkte p
l und p
r mit den jeweiligen Koordinaten (x
l, y
l) und (x
r, y
r) stellen Schnittpunkte von zwei Bildebenen mit zwei imaginären von dem Punkt P jeweils zu den optischen Mittelpunkten O
l und O
r der linken und rechten Kameras gezogenen Linien dar. Tiefeninformationen über den Punkt P können durch Verwendung der folgenden Formel erlangt werden:
Z = D = f B / dx, (2) wobei D die Tiefe, f die Brennweite, dx = x
r – x
l die Disparität ist, und
B = O
r – O
l der Basislinien-Abstand ist. Auf ähnliche Weise können die Koordinaten X und Y des Punktes P auch gefunden werden als:
-
Auf diese Weise können die 3D-Informationen des Zielobjektes durch die zwei Bildebenen der Stereokamera erlangt werden.
-
Aus dem Obigen ist zu erkennen, dass es notwendig ist, zuerst Positionen auf den zwei Bildebenen zu finden, die mit einem selben Punkt auf dem Zielobjekt korrespondieren, um die 3D-Informationen eines Punktes durch die zwei Bildebenen der Stereokamera zu erlangen. 3 ist eine Darstellung, die ein Verfahren für das Suchen nach korrespondierenden Punkten in einem Bezugsbild und einem Zielbild darstellt. Ein Bezugsbild 301 und einem Zielbild 302 sind von der Stereokamera aufgenommene linke und rechte Bilder, wobei jedes eine Höhe H und eine Breite W aufweist. Um die Position eines Punktes PT[i] in dem Zielbild 302 zu finden, der mit einem Punkt PR in dem Bezugsbild 301 korrespondiert, werden die Koordinaten (x, y) des Punktes PR als Ursprung für die Suche verwendet. Von den Koordinaten (x, y) beginnend, wird die Suche in dem Zielbild 302 entlang einer epipolaren Linie (gestrichelte Linie in 3) ausgeführt, um den Punkt PT[i] in dem Zielbild 302 zu finden. Der Punkt PT[i] ist ein Punkt auf der epipolaren Linie, der aus einer Reihe von Kandidaten-Punkten PT[0] – PT[N] zwischen den Koordinaten (x, y) und (x + dmax, y) in dem Zielbild 302 ausgewählt ist. Der Punkt PT[i] hat die höchste Ähnlichkeit mit dem Punkt PR von allen Kandidaten-Punkten PT[0] – PT[N], wobei N mit einem maximalen Suchbereich ”dmax” korrespondiert. Wenn der Punkt PT[i] gefunden worden ist, können die obigen Gleichungen (2), (3) und (4) verwendet werden, um die 3D-Informationen der Punkte PR, PT[i] zu bestimmen. Wie in 3 gezeigt, kann der Punkt PT[i] der Punkt PT[0] sein. Obwohl das zur Bestimmung der 3D-Informationen beschriebene Verfahren die Größe des Objektes ermitteln kann, ist das Verfahren nicht in der Lage, Unterschiede bei Objekten zu erfassen.
-
Es ist Bezug zu nehmen auf 4, die eine Darstellung eines Messsystems 40 zur Bestimmung der Tiefe eines Zielobjekts 420 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist. Das Messsystem 40 umfasst eines Stereokamera 410 und eine Messoberfläche 430. Die Stereokamera 410 kann eine linke Kamera 411 und eine rechte Kamera 412 umfassen. Die linke Kamera 411 und die rechte Kamera 412 können ähnliche oder identische Spezifikationen aufweisen und können kollinear in der Stereokamera 410 angebracht sein. Die linke Kamera 411 und die rechte Kamera 412 können auch kalibriert werden. Die linke Kamera 411 kann ein erstes Sichtfeld FOV1 aufweisen, und die rechte Kamera 412 kann ein zweites Sichtfeld FOV2 aufweisen. Ein gemeinsames Sichtfeld (FOV) kann eine Schnittfläche des ersten Sichtfeldes FOV1 und des zweiten Sichtfeldes FOV2 sein. Wenn das Zielobjekt 420 auf der Messoberfläche 430 in dem gemeinsamen FOV der Stereokamera 410 positioniert ist, kann die Stereokamera 410 die Größe des Zielobjekts 420 gemäß der Disparität der linken Kamera 411 und der rechten Kamera 412 bestimmen, um so die Genauigkeit zu verbessern, wenn die Ähnlichkeit des Zielobjekts 420 mit einem Bezugsobjekt bestimmt wird. Um die Tiefe des Zielobjekts 420 zu messen, kann das Zielobjekt 420 auf der Messoberfläche 430, zwischen der Messoberfläche 430 und der Stereokamera 410 innerhalb des gemeinsamen FOV positioniert sein, z. B. entlang einer zu einer Linie zwischen der linken Kamera 411 und der rechten Kamera 412 senkrechten Normalen. Auf diese Weise kann die Tiefe des Zielobjekts 420 erlangt werden, indem eine Differenz des Abstands zwischen der Stereokamera 410 und der Messoberfläche 430 und des Abstands zwischen der Stereokamera 410 und dem Zielobjekt 420 ermittelt wird.
-
Um die oben aufgeführten Probleme zu lösen, werden ein Verfahren und ein System zur Durchführung von Objekterkennung durch 3D-Informationen-, Farb- und Formähnlichkeit vorgesehen. Es ist Bezug zu nehmen auf 5, die ein Ablaufdiagramm eines Verfahrens zur Durchführung von Objekterkennung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist. Das Verfahren umfasst Vorteile jedes der oben erwähnten Verfahren, und bietet eine bessere Genauigkeit für die Objekterkennung. Das Verfahren kann mindestens die folgenden Schritte umfassen:
-
Schritt 500: Stelle eine Kamera bereit und kalibriere diese;
-
Schritt 502: Erzeuge über durch die Stereokamera erlangte 3D-Informationen eine Disparitätenabbildung;
-
Schritte 504: Erlange von einem durch die Stereokamera aufgenommenen Bild über die Hintergrunddifferenz ein Zielobjekt;
-
Schritt 506: Verwende die Disparitätenabbildung, um Breite, Länge und Tiefe des Zielobjekts zu berechnen;
-
Schritt 508: Bestimme Farb- und Formeigenschaften des Zielobjekts;
-
Schritt 510: Wenn die Länge des Zielobjekts innerhalb eines Längenschwellenwertes der Länge eines Bezugsobjektes ist, die Breite des Zielobjekts innerhalb eines Breitenschwellenwertes der Breite des Bezugsobjektes ist, und die Tiefe des Zielobjekts innerhalb eines Tiefenschwellenwertes der Tiefe des Bezugsobjektes ist, gehe zu Schritt 512, andernfalls gehe zu Schritt 516;
-
Schritt 512: Vergleiche die Farbeigenschaften des Zielobjekts mit den Farbeigenschaften des Bezugsobjektes, um eine Farbabweichung zu ermitteln; wenn die Farbabweichung innerhalb eines Farbabweichungsschwellenwertes ist, gehe zu Schritt 514, andernfalls gehe zu Schritt 516;
-
Schritt 514: Vergleiche die Formeigenschaften des Zielobjekts mit dem Formeigenschaften des Bezugsobjektes, um eine Formabweichung zu ermitteln; wenn die Formabweichung innerhalb eines Formabweichungsschwellenwertes ist, gehe zu Schritt 518, andernfalls gehe zu Schritt 520;
-
Schritt 516: Das Zielobjekt stimmt nicht mit dem Bezugsobjekt überein, gehe zu Schritt 520;
-
Schritt 518: Das Zielobjekt stimmt mit dem Bezugsobjekt überein; und
-
Schritt 520: Ende.
-
Wenn die Stereokamera kalibriert wird (Schritt 500), kann die Basislinie B der Stereokamera gemäß dem Maß der Entfernung des zu erfassenden Zielobjekts ermittelt werden. Linke und rechte Kameras mit ähnlichen Eigenschaften können dann parallel zu der Basislinie B so positioniert werden, dass die Abbildungsebenen der linken und rechten Kameras zueinander innerhalb eines akzeptablen Abweichungsschwellenwertes angeordnet sind, z. B. innerhalb von 10 Pixeln in der y-Richtung. Dann kann die flexible Kalibrierung verwendet werden, um interne und externe Parameter der linken und rechten Kameras zu berechnen. Ein Schachbrettmuster kann durch die Stereokamera bei einer Vielfalt von Ausrichtungen beobachtet werden, indem entweder die Stereokamera oder das Schachbrettmuster bewegt wird. Schnittpunkte von Linien auf dem Schachbrettmuster in Bildkoordinaten und in 3D-Raumkoordinaten können verwendet werden, um die internen und externen Parameter zu berechnen, um die relativen Koordinaten der linken oder rechten Kameras wie auch Bildverzerrung-Kalibrierungsparameter der linken und rechten Kameras zu erlangen.
-
Eine Disparitätenabbildung kann durch 3D-Informationen erzeugt werden, die durch die Stereokamera erlangt werden (Schritt 502). Gemäß einem durch die Stereokamera nach der Kalibrierung aufgenommenen Bild, kann eine Überprüfung der linken/rechten Kamera durchgeführt werden, um die relativen Positionen jedes Pixels in einem linken Bild und einem rechten Bild, das jeweils durch die linke Kamera und die rechte Kamera aufgenommen worden ist, zu vergleichen. Dann können die relativen Koordinaten verwendet werden, um die Disparitätenabbildung zu erzeugen. Nachdem die Disparitätenabbildung erzeugt worden ist, kann der Abstand zu der Messoberfläche, auf der sich das Zielobjekt befindet, aus der Disparitätenabbildung berechnet werden.
-
Das Zielobjekt kann dann durch die Hintergrunddifferenz aus einem von der Stereokamera aufgenommenen Bild erlangt werden (Schritt 504). Zuerst wird ein passiver Hintergrund erstellt, z. B. kann ein Hintergrundbild aufgenommen werden, ohne dass ein Zielobjekt vorhanden ist. Dann kann das Zielobjekt über die Hintergrunddifferenz aus dem Bild extrahiert werden. Das Zielobjekt kann aus dem rechten Bild oder dem linken Bild über die Hintergrunddifferenz ermittelt werden, indem das rechte Bild oder das linke Bild mit einem Bild der Messoberfläche allein verglichen wird, um einen von der Messoberfläche sich unterscheidenden Bereich des rechten Bildes oder des linken Bildes zu bestimmen, der mit dem Zielobjekt korrespondiert. Eine Analyse der Hauptkomponenten kann dann an dem Zielobjekt durchgeführt werden, um eine Hauptachse des Zielobjekts zu bestimmen. Das Zielobjekt kann dann auf die Hauptachse bezogen normalisiert werden.
-
Die Disparitätenabbildung kann dann verwendet werden, um Breite, Länge und Tiefe des Zielobjekts zu berechnen (Schritt 506). Der Abstand des Zielobjekts von der Stereokamera und die Tiefe des Zielobjekts können aus der Disparitätenabbildung berechnet werden. Dann kann unter Verwendung von Dreiecksbeziehungen die Tiefe verwendet werden, um die Länge und die Breite des Zielobjekts zu berechnen. Die Tiefe kann als Differenz zwischen dem Abstand zu der Messoberfläche und dem Abstand zu dem Zielobjekt berechnet werden.
-
Form- und Farbeigenschaften des Zielobjekts können über die Verwendung von Farbhistogrammen und Formkontexten ermittelt werden (Schritt 508). Die Farbeigenschaften (TC1, TC2, ...., TCN) können durch die Farbhistogramme erlangt werden. Die Formeigenschaften (TS1, TS2, ...., TSN) können durch die Formkontexte erlangt werden.
-
Angenommen, das Bezugsobjekt weist eine Länge OL, eine Breite OW und eine Tiefe OD auf, und das Zielobjekt weist eine Länge TL, eine Breite TW und eine Tiefe TD auf, kann, wenn: E(OL, TL) ≤ THL und E(OW, TW) ≤ THW und E(OD, TD) ≤ THD ist, das Zielobjekt mit dem Bezugsobjekt übereinstimmen, wobei E(OL, TL), E(OW, TW) und E(OD, TD) Dimensionsabweichungsfunktionen sind, und THL, THW und THD jeweils Längen-, Breiten-, und Tiefenabweichungsschwellenwerte sind. Die Längen-, Breiten-, und Tiefenabweichungsschwellenwerte können in Einheiten von Zentimetern (cm) ausgedrückt sein, und können entsprechend Versuchsergebnissen und/oder Auslegungsanforderungen eingestellt sein. Wenn die Längenabweichung, die Breitenabweichung oder die Tiefenabweichung den Längenabweichungsschwellenwert THL, den Breitenabweichungsschwellenwert THW oder den Tiefenabweichungsschwellenwert THD jeweils überschreitet, dann stimmt das Zielobjekt nicht mit dem Bezugsobjekt überein, und der Prozess kann beendet werden.
-
Angenommen, dass die Farbeigenschaften des Bezugsobjektes durch (OC1, OC2, ..., OCN) dargestellt werden, und die Farbeigenschaften des Zielobjekts durch (TC1, TC2, ...., TCN) dargestellt werden, kann, wenn minE((OC1, OC2, ..., OCN), (TC1, TC2, ...., TCN)) ≤ THC ist, dann das Zielobjekt mit dem Bezugsobjekt übereinstimmen, wobei THC ein Farbabweichungsschwellenwert ist, der entsprechend Versuchsergebnissen und/oder Auslegungsanforderungen eingestellt werden kann, und E((OC1, OC2, ..., OCN), (TC1, TC2, ...., TCN)) eine Farbabweichungsfunktion ist. Wenn die minimale Farbabweichung gemäß E((OC1, OC2, ..., OCN), (TC1, TC2, ...., TCN)) größer als der Farbabweichungsschwellenwert THC ist, dann stimmt das Zielobjekt nicht mit dem Bezugsobjekt überein, und der Prozess kann beendet werden.
-
Angenommen, dass die Formeigenschaften des Bezugsobjektes durch (OS1, OS2, ..., OSN) dargestellt werden, und die Formeigenschaften des Zielobjekts durch (TS1, TS2, ...., TSN) dargestellt werden, kann, wenn minE((OS1, OS2, ..., OSN), (TS1, TS2, ...., TSN)) ≤ THS ist, dann das Zielobjekt mit dem Bezugsobjekt übereinstimmen, wobei THS ein Formabweichungsschwellenwert ist, der entsprechend Versuchsergebnissen und/oder Auslegungsanforderungen eingestellt werden kann, und E((OS1, OS2, ..., OSN), (TS1, TS2, ...., TSN)) eine Formabweichungsfunktion ist. Wenn die minimale Formabweichung gemäß E((OS1, OS2, ..., OSN), (TS1, TS2, ...., TSN)) größer als der Formabweichungsschwellenwert THS ist, dann stimmt das Zielobjekt nicht mit dem Bezugsobjekt überein, und der Prozess kann beendet werden.
-
In der Praxis kann die Stereokamera in einem Abstand von der Messoberfläche positioniert sein, und das Zielobjekt kann auf der Messoberfläche angeordnet sein. Die rechte Kamera kann ein rechtes Bild des Zielobjekts auf der Messoberfläche aufnehmen, und die linke Kamera kann ein linkes Bild des Zielobjekts auf der Messoberfläche aufnehmen. Die Breite, Tiefe und Länge des Zielobjekts kann dann aus dem rechten Bild und dem linken Bild berechnet werden. Wenn die Länge des Zielobjekts oberhalb des Längenschwellenwertes der Länge des Bezugsobjekt ist, die Breite des Zielobjekts oberhalb des Breitenschwellenwertes der Breite des Bezugsobjektes ist, oder die Tiefe des Zielobjekts oberhalb des Tiefenschwellenwertes der Tiefe des Bezugsobjektes ist, kann ein neues 3D-Bezugsobjekt zum Vergleich mit dem Zielobjekt ausgewählt werden. Nachdem das Zielobjekt mit allen 3D-Bezugsobjekten verglichen worden ist, kann ein 3D-Bezugsobjekt mit Längen-, Breiten- und Tiefeneigenschaften, die dem Zielobjekt am ähnlichsten sind, bestimmt werden. Ähnlich kann, wenn die Farbabweichung zwischen den Farbeigenschaften des Zielobjekts und den Farbeigenschaften des Bezugsobjektes oberhalb des Farbabweichungsschwellenwertes ist oder die Formabweichung zwischen den Formeigenschaften des Zielobjekts und den Formeigenschaften des Bezugsobjektes oberhalb des Formabweichungsschwellenwertes ist, das neue 3D-Bezugsobjekt zum Vergleich mit dem Zielobjekt ausgewählt werden. Nachdem das Zielobjekt mit allen 3D-Bezugsobjekten verglichen worden ist, kann ein 3D-Bezugsobjekt mit Farbeigenschaften, die dem Zielobjekt am ähnlichsten sind, bestimmt werden. Andernfalls kann eine Übereinstimmung zwischen dem Zielobjekt und dem Bezugsobjekt angezeigt werden. So können die Schritte 510–516 wiederholt werden bis eine Übereinstimmung zwischen dem Zielobjekt und einem übereinstimmenden Bezugsobjekt gefunden worden ist.
-
Aus dem obigen ist zu ersehen, dass das beschriebene Verfahren die Probleme lösen kann, die auftreten, wenn nur Farbvergleich, Formvergleich, oder eine Kombination von Farb- und Formvergleich verwendet wird. Insbesondere ist das beschriebene Verfahren so robust, dass es mit Bedingungen umgehen kann, bei denen das Zielobjekt und das Bezugsobjekt verschiedene Form und/oder verschiedene Größe haben. Somit erhöht das beschriebene Verfahren, das Größe, Farbe und Form verwendet, um das Zielobjekt dem Bezugsobjekt zuzuordnen, die Genauigkeit, wenn es das Zielobjekt und das Bezugsobjekt vergleicht.
-
Zusammenfassend ist festzustellen, dass mittels der Verwendung einer Stereokamera ein Vergleich von Parametern, die Breite, Länge, Tiefe, Farbe und Form umfassen, eines Zielobjekts mit einem Bezugsobjekt durchgeführt wird. Wenn sich die Parameter des Zielobjekts innerhalb von Schwellenwerten der Parameter des Bezugsobjekts befinden, wird eine Übereinstimmung angezeigt. Wenn nicht, wird ein neues Bezugsobjekt für den Vergleich mit dem Zielobjekt ausgesucht.
-
Bezugszeichenliste
-
- 40
- Messsystem
- 100
- Zielobjekt
- 101
- Bezugsobjekt
- 110
- Koordinate
- 111
- Koordinate
- 112
- Koordinate
- 120
- Formkontext
- 121
- Formkontext
- 122
- Formkontext
- 150
- log-polarer Histogramm-Behälter
- 301
- Bezugsbild
- 302
- Zielbild
- 410
- Stereokamera
- 411
- linke Kamera
- 412
- rechte Kamera
- 420
- Zielobjekt
- 430
- Messoberfläche