[go: up one dir, main page]

DE60037919T2 - Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür - Google Patents

Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür Download PDF

Info

Publication number
DE60037919T2
DE60037919T2 DE60037919T DE60037919T DE60037919T2 DE 60037919 T2 DE60037919 T2 DE 60037919T2 DE 60037919 T DE60037919 T DE 60037919T DE 60037919 T DE60037919 T DE 60037919T DE 60037919 T2 DE60037919 T2 DE 60037919T2
Authority
DE
Germany
Prior art keywords
coefficients
filters
candidate
graphs
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60037919T
Other languages
English (en)
Other versions
DE60037919D1 (de
Inventor
Hyun Doo 510-1302 Mujigae Maeul Shin
Yang Lim 102-1112 Wooman Choi
Peng University of California Santa Barbara Wu
B. S. University of California Sanata Barbara Manjunath
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
University of California
University of California Berkeley
University of California San Diego UCSD
Original Assignee
Samsung Electronics Co Ltd
University of California
University of California Berkeley
University of California San Diego UCSD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd, University of California, University of California Berkeley, University of California San Diego UCSD filed Critical Samsung Electronics Co Ltd
Publication of DE60037919D1 publication Critical patent/DE60037919D1/de
Application granted granted Critical
Publication of DE60037919T2 publication Critical patent/DE60037919T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • G06V30/1988Graph matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Wiedergewinnen eines Bildtextur-Deskriptors und im Besonderen ein Bildtextur-Deskriptor-Wiedergewinnungsverfahren zum Wiedergewinnen eines Textur-Deskriptors, der beim Suchen und Durchsuchen eines Bildes verwendet wird und Texturcharakteristiken des Bildes beschreibt, und eine Vorrichtung davon.
  • Stand der Technik
  • In jüngster Zeit ist Bildtextur als wichtige visuelle Merkmale zum Suchen und Durchsuchen eines großen Satzes ähnlicher Bildmuster in Erscheinung getreten. Zum Beispiel extrahiert ein herkömmlicher Textur-Deskriptor zum Filtern eines Textur-Deskriptors mit einem Gabor-Filter einen Textur-Deskriptor, bestehend aus Koeffizienten, die durch Gabor-Filtern gewonnen wurden. Auch wenn herkömmliche Bildtextur-Deskriptoren aus zahlreichen Vektoren bestehen, ist es dennoch recht schwierig, Texturstrukturen anhand des Textur-Deskriptors visuell wahrzunehmen.
  • Das Dokument von Porat et al., „Localized texture processing in vision: Analysis and synthesis in the Gaborian space", IEEE Transactions an Biomedical Engineering, IEEE Inc., New York, USA, Bd. 36, Nr. 1, 1989, Seite 115 bis 129, beschreibt einen Textur-Deskriptor mit einem einzelnen direktionalen Merkmal, nämlich der dominanten lokalisierten Frequenz.
  • Das Dokument von Hamamoto et al., „A Gabor filter-based method for recognizing handwritten numerals", Pattern Recognition, Pergamon Press Inc., Elmsford, New York, USA, Bd. 31, Nr. 4, 1. April 1998, Seite 395 bis 400, beschreibt das Erkennen handschriftlicher Ziffern auf Basis eines Gabor-Filters, das inhärent direktionales Filtern enthält.
  • Offenlegung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Wiedergewinnen eines Bildtextur-Deskriptors bereitzustellen, das die in einem Bild vorhandenen Texturstrukturen perzeptorisch erfassen kann.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein computerlesbares Speichermedium bereitzustellen, in dem ein Computerprogramm gespeichert ist, wobei das Programm so eingerichtet ist, dass ein Computer das Bildtextur-Deskriptor-Wiedergewinnungsverfahren ausführt.
  • Es ist noch eine andere Aufgabe der vorliegenden Erfindung, eine Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung bereitzustellen, die das Bildtextur-Deskriptor-Wiedergewinnungsverfahren durchführt.
  • Zum Erfüllen der vorgenannten Aufgabe wird ein Verfahren zum Wiedergewinnen eines Bildtextur-Deskriptors zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, das die folgenden Schritte enthält: (a) Filtern von Eingabebildern unter Verwendung vorgegebener Filter mit verschiedenen Orientierungskoeffizienten; (b) Projizieren der gefilterten Bilder auf Achsen jeder vorgegebenen Richtung, um Datengruppen zu gewinnen, die aus Durchschnittswerten von jedem der direktionalen Pixelwerte bestehen; (c) Auswählen von Kandidaten-Datengruppen aus den Datengruppen mit einem vorgegebenen Klassifizierungsverfahren; (d) Bestimmen einer Vielzahl von Indikatoren auf Basis von Orientierungs-Koeffizienten der Filter, die beim Filtern der Kandidaten-Datengruppen verwendet werden; und (e) Bestimmen der Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes.
  • Der Schritt (a) kann des Weiteren den Schritt des (a-1) Filterns von Eingabebildern unter Verwendung vorgegebener Filter mit unterschiedlichen Skalen-Koeffizienten enthalten und der Schritt (d) umfasst des Weiteren den Schritt des (d-1) Bestimmens einer Vielzahl von Indikatoren auf Basis von Skalen-Koeffizienten der Filter, die beim Filtern der Kandidaten-Datengruppen verwendet werden.
  • Das Bildtextur-Deskriptor-Wiedergewinnungsverfahren kann des Weiteren den Schritt des Bestimmens eines anderen Indikators auf Basis des Vorhandenseins von Datengruppen, die mit Filtern gefiltert werden, die Skalen-Koeffizienten oder Orientierungs- Koeffizienten haben, die nahe an den Skalen-Koeffizienten oder Orientierungs-Koeffizienten der Filter liegen, die beim Filtern der ausgewählten Kandidaten-Datengruppen verwendet werden, oder mit ihnen identisch sind, umfassen.
  • Das Bildtextur-Deskriptor-Wiedergewinnungsverfahren kann des Weiteren den Schritt des Berechnens des Mittels und der Varianz von Pixeln in Bezug auf die gefilterten Bilder und des Bestimmens eines vorgegebenen Vektors unter Verwendung des berechneten Mittels und der berechneten Varianz enthalten.
  • Nach einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Wiedergewinnen eines Bildtextur-Deskriptors zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, das die folgenden Schritte enthält: (a) Filtern von Eingabebildern unter Verwendung vorgegebener Filter mit verschiedenen Skalen-Koeffizienten, (b) Projizieren der gefilterten Bilder auf Achsen jeder vorgegebenen Richtung, um Datengruppen zu gewinnen, die aus Durchschnittswerten von jedem der direktionalen Pixelwerte bestehen, (c) Bestimmen einer Vielzahl von Indikatoren auf Basis von Skalen-Koeffizienten der Filter, die beim Filtern von Datengruppen verwendet werden, die mit einem vorgegebenen Auswahlverfahren aus den Datengruppen ausgewählt wurden, (d) Bestimmen der Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes.
  • Nach noch einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Wiedergewinnen eines Bildtextur-Deskriptors zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, das die folgenden Schritte umfasst: (a) Filtern von Eingabebildern unter Verwendung vorgegebener Filter mit verschiedenen Orientierungs-Koeffizienten und verschiedenen Skalen-Koeffizienten, (b) Projizieren der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsenprojektionsgraphen und Vertikalachsenprojektionsgraphen zu gewinnen, (c) Berechnen normalisierter Autokorrelationswerte für jeden Graphen, (d) Ermitteln lokaler Maximalwerte und eines lokalen Minimalwertes für jeden normalisierten Autokorrelationswert, bei denen die berechneten normalisierten Autokorrelationswerte eine lokale Spitze und ein lokales Tal in einem vorgegebenen Abschnitt bilden, (e) Definieren des Mittels der lokalen Maximalwerte und des Mittels der lokalen Minimalwerte als Kontrast, (f) Auswählen von Graphen, bei denen das Verhältnis der Standardabweichung zu dem Mittel der lokalen Maximalwerte geringer ist als ein vorgegebener Schwellenwert oder diesem entspricht, als erste Kandidaten- Graphen, (g) Bestimmen des Typs der zweiten Kandidaten-Graphen gemäß der Anzahl von Graphen, die mit den Filtern gefiltert wurden, die Skalen-Koeffizienten oder Orientierungs-Koeffizienten haben, die nahe an den Skalen-Koeffizienten oder Orientierungs-Koeffizienten der Filter liegen, die beim Filtern der ausgewählten zweiten Kandidaten-Graphen verwendet werden, oder mit ihnen identisch sind, (h) Zählen der Anzahlen von Graphen, die zu den jeweiligen Typen zweiter Kandidaten-Graphen gehören, und Bestimmen vorgegebener Gewichte jedes Typs zweiter Kandidaten-Graphen, (i) Berechnen der Summe von Produkten der gezählten Anzahlen von Graphen und der bestimmten Gewichte, um den Berechnungsergebniswert als einen ersten Indikator zu bestimmen, der einen Textur-Deskriptor bildet, (j) Bestimmen der Orientierungs-Koeffizienten und Skalen-Koeffizienten der zweiten Kandidaten-Graphen mit dem größten Kontrast als zweiten bis fünften Indikator, und (k) Bestimmen von Indikatoren, die den ersten Indikator und den zweiten bis fünften Indikator enthalten, als die Textur-Deskriptoren des entsprechenden Bildes.
  • Das Bildtextur-Deskriptor-Wiedergewinnungsverfahren kann des Weiteren den Schritt des Berechnens des Mittels und der Varianz von Pixeln in Bezug auf die gefilterten Bilder und des Bestimmens eines vorgegebenen Vektors unter Verwendung des berechneten Mittels und der berechneten Varianz enthalten, wobei der Schritt (k) den Schritt des Bestimmens von Indikatoren, die den ersten Indikator, den zweiten bis fünften Indikator und den vorgegebenen Vektor enthalten, als die Textur-Deskriptoren des entsprechenden Bildes enthält.
  • Die normalisierte Autokorrelation, bezeichnet durch NAC(k), wird vorzugsweise mit der folgenden Formel berechnet:
    Figure 00040001
    wobei N eine vorgegebene positive ganze Zahl ist, ein Eingabebild aus N×N Pixeln besteht, eine Pixelposition durch i dargestellt wird, wobei i eine Zahl von 1 bis N ist, wobei die Projektionsgraphen, die durch Pixel der Pixelposition i ausgedrückt werden, durch P(i) dargestellt werden und k eine Zahl von 1 bis N ist.
  • Der Kontrast wird bestimmt als:
    Figure 00050001
    wobei P_magn (i) und V_magn (i) die lokalen Maximalwerte und lokalen Minimalwerte sind, die in dem Schritt (d) bestimmt werden.
  • In dem Schritt (f) werden die Graphen, die die folgende Formel erfüllen, als erste Kandidaten-Graphen ausgewählt: Sd ≤ α,wobei d und S das Mittel und die Standardabweichung der lokalen Maximalwerte sind und α ein vorgegebener Schwellenwert ist.
  • Der Schritt (g) enthält die Teilschritte (g-1), wenn es einen oder mehrere Graphen gibt, die Skalen- oder Orientierungs-Koeffizienten haben, die mit denen eines pertinenten Kandidaten-Graphen identisch sind, und einen oder mehrere Graphen, die Skalen- oder Orientierungs-Koeffizienten haben, die nahe an denen des pertinenten Kandidaten-Graphen liegen, wobei der pertinente Kandidaten-Graph als ein Graph ersten Typs klassifiziert wird, (g-2), wenn es einen oder mehrere Graphen gibt, die Skalen- oder Orientierungs-Koeffizienten haben, die mit denen eines pertinenten Kandidaten-Graphen identisch sind, es aber keinen Graphen gibt, der Skalen- oder Orientierungs-Koeffizienten hat, die nahe an denen des pertinenten Kandidaten-Graphen liegen, wobei der pertinente Kandidaten-Graph als ein Graph zweiten Typs klassifiziert wird, und (g-3), wenn es keinen Graphen gibt, der Skalen- oder Orientierungs-Koeffizienten hat, die mit denen eines pertinenten Kandidaten-Graphen identisch sind oder nahe an diesen liegen, wobei der pertinente Kandidaten-Graph als ein Graph dritten Typs klassifiziert wird.
  • Der Schritt (h) enthält den Schritt des Zählens der Anzahl von Graphen, die zu jedem des ersten bis dritten Typs von Graphen gehören, und des Bestimmens vorgegebener Gewichte für jeden der Typen von Graphen.
  • Nach dem Schritt (f) kann des Weiteren der Schritt des Anwendens eines vorgegebenen Gruppierungsalgorithmus auf die ersten Kandidaten-Graphen zum Auswählen zweiter Kandidaten-Graphen enthalten sein.
  • Der vorgegebene Gruppierungsalgorithmus ist vorzugsweise modifiziertes agglomerierendes Gruppieren.
  • Vorzugsweise wird in dem Schritt (j) der Orientierungs-Koeffizient eines Graphen mit dem größten Kontrast aus den Horizontalachsenprojektionsgraphen als ein zweiter Indikator bestimmt; der Orientierungs-Koeffizient eines Graphen mit dem größten Kontrast aus den Vertikalachsenprojektionsgraphen wird als ein zweiter Indikator bestimmt; der Skalen-Koeffizient eines Graphen mit dem größten Kontrast aus den Horizontalachsenprojektionsgraphen wird als ein vierter Indikator bestimmt; und der Skalen-Koeffizient eines Graphen mit dem größten Kontrast aus den Vertikalachsenprojektionsgraphen wird als ein fünfter Indikator bestimmt.
  • Der Schritt (j) kann den Schritt des Bestimmens von Indikatoren, die den ersten Indikator, den zweiten bis fünften Indikator und den vorgegebenen Vektor enthalten, als die Textur-Deskriptoren des entsprechenden Bildes enthalten.
  • Die vorgegebenen Filter enthalten vorzugsweise Gabor-Filter.
  • Um die zweite Aufgabe der vorliegenden Erfindung zu erfüllen, wird ein computerlesbares Medium bereitgestellt, das Programmcodes aufweist, die von einem Computer ausgeführt werden können, um ein Verfahren für einen Bildtextur-Deskriptor zum Beschreiben von Texturmerkmalen eines Bildes durchzuführen, wobei das Verfahren die folgenden Schritte enthält: (a) Filtern von Eingabebildern unter Verwendung vorgegebener Filter mit verschiedenen Orientierungs-Koeffizienten und verschiedenen Skalen-Koeffizienten, (b) Projizieren der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsenprojektionsgraphen und Vertikalachsenprojektionsgraphen zu ge winnen, (c) Berechnen normalisierter Autokorrelationswerte für jeden Graphen, (d) Ermitteln lokaler Maximalwerte und lokaler Minimalwerte für jeden der normalisierten Autokorrelationswerte, bei denen der berechnete normalisierte Autokorrelationswert eine lokale Spitze und ein lokales Tal in einem vorgegebenen Abschnitt bildet, (e) Definieren des Mittels der lokalen Maximalwerte und des Mittels der lokalen Minimalwerte als Kontrast, (f) Auswählen von Graphen, bei denen das Verhältnis der Standardabweichung zu dem Mittel der lokalen Maximalwerte geringer ist als ein vorgegebener Schwellenwert oder diesem entspricht, als erste Kandidaten-Graphen, (g) Bestimmen des Typs der zweiten Kandidaten-Graphen gemäß der Anzahl von Graphen, die mit den Filtern gefiltert wurden, die Skalen-Koeffizienten oder Orientierungs-Koeffizienten haben, die nahe an den Skalen-Koeffizienten oder Orientierungs-Koeffizienten der Filter liegen, die beim Filtern der ausgewählten zweiten Kandidaten-Graphen verwendet werden, oder mit ihnen identisch sind, (h) Zählen der Anzahlen von Graphen, die zu den jeweiligen Typen zweiter Kandidaten-Graphen gehören, und Bestimmen vorgegebener Gewichte jedes Typs von zweitem Kandidaten-Graphen, (i) Berechnen der Summe von Produkten der gezählten Anzahlen von Graphen und der bestimmten Gewichte, um den Berechnungsergebniswert als einen ersten Indikator zu bestimmen, der einen Textur-Deskriptor bildet, (j) Bestimmen der Orientierungs-Koeffizienten und Skalen-Koeffizienten der zweiten Kandidaten-Graphen mit dem größten Kontrast als zweiten bis fünften Indikator, und (k) Bestimmen von Indikatoren, die den ersten Indikator und den zweiten bis fünften Indikator enthalten, als die Textur-Deskriptoren des entsprechenden Bildes.
  • Um die dritte Aufgabe der vorliegenden Erfindung zu erfüllen, wird ein Vorrichtungsverfahren zum Wiedergewinnen eines Bildtextur-Deskriptors zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, wobei die Vorrichtung enthält: eine Filtereinrichtung zum Filtern von Eingabebildern unter Verwendung vorgegebener Filter, die unterschiedliche Orientierungs-Koeffizienten haben, eine Projiziereinrichtung zum Projizieren der gefilterten Bilder auf Achsen jeder vorgegebenen Richtung, um Datengruppen zu gewinnen, die aus Durchschnittswerten von jedem der direktionalen Pixelwerte bestehen, eine Klassifiziereinrichtung zum Auswählen von Kandidaten-Datengruppen aus den Datengruppen mit einem vorgegebenen Klassifizierungsverfahren, eine Einrichtung zum Bestimmen eines ersten Indikators zum Bestimmen eines anderen Indikators auf Basis der Anzahl von Graphen, die mit Filtern gefiltert werden, die Skalen-Koeffizienten oder Orientierungs-Koeffizienten haben, die nahe an den Skalen-Koeffizienten oder Orientie rungs-Koeffizienten der Filter liegen, die beim Filtern des ausgewählten Kandidaten-Graphen verwendet werden, oder mit ihnen identisch sind, und eine Einrichtung zum Bestimmen eines zweiten Indikators zum Bestimmen einer Vielzahl von Indikatoren auf Basis von Skalen-Koeffizienten und Orientierungs-Koeffizienten der Filter, die beim Filtern der bestimmten Kandidaten-Graphen verwendet werden.
  • Alternativ wird eine Vorrichtung zum Wiedergewinnen eines Bildtextur-Deskriptors zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, wobei die Vorrichtung enthält: eine Filtereinheit zum Filtern von Eingabebildern unter Verwendung vorgegebener Filter, die unterschiedliche Orientierungs-Koeffizienten und unterschiedliche Skalen-Koeffizienten haben, eine Bild-Mittel/Varianz-Berechnungseinheit zum Berechnen des Mittels und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder und zum Bestimmen eines vorgegebenen Vektors unter Verwendung des berechneten Mittels und der berechneten Varianz, eine Projiziereinheit zum Projizieren der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsenprojektionsgraphen und Vertikalachsenprojektionsgraphen zu gewinnen, eine Berechnungseinheit zum Berechnen eines normalisierten Autokorrelationswertes für jeden Graphen, eine Spitzen-Erfassungs-/Analysiereinheit zum Erfassen lokaler Maximalwerte und lokaler Minimalwerte für jeden Autokorrelationswert, bei denen die berechneten normalisierten Autokorrelationswerte eine lokale Spitze und ein lokales Tal in einem vorgegebenen Abschnitt bilden, eine Mittel/Varianz-Berechnungseinheit zum Berechnen des Mittels der lokalen Maximalwerte und des Mittels der lokalen Minimalwerte, eine Einheit zum Auswählen/Speichern erster Kandidaten-Graphen zum Auswählen der Graphen, die die Bedingung erfüllen, dass das Verhältnis der Standardabweichung zu dem Mittel der lokalen Maximalwerte geringer ist als ein vorgegebener Schwellenwert oder diesem entspricht, als erste Kandidaten-Graphen, eine Einheit zum Auswählen/Speichern zweiter Kandidaten-Graphen zum Anwenden eines vorgegebenen Gruppierungsalgorithmus auf die ersten Kandidaten-Graphen, um diese als zweite Kandidaten-Graphen auszuwählen, eine Klassifiziereinheit zum Zählen der Anzahlen von Graphen, die zu jedem der jeweiligen Typen der zweiten Kandidaten-Graphen gehören, zum Ausgeben von Datensignalen, die die Anzahl von Graphen jedes Typs anzeigen, zum Bestimmen vorgegebener Gewichte der Graphen, die zu den jeweiligen Typen gehören, und zum Ausgeben von Datensignalen, die Gewichte anzeigen, die auf jeden Typ anzuwenden sind, eine Einheit zum Bestimmen erster Indikatoren zum Berechnen der Summe der Produkte der Daten, die die An zahl von Graphen, die zu jedem Typ gehören, darstellen, und der Daten, die die Gewichte, die auf jeden Typ anzuwenden sind, darstellen, zum Bestimmen und zum Ausgeben des Berechnungsergebnisses als einen ersten Indikator, der einen Textur-Deskriptor bildet, eine Kontrastberechnungseinheit zum Berechnen des Kontrastes gemäß Formel (2) unter Verwendung der von der Mittel/Varianz-Berechnungseinheit ausgegebenen Mittel und zum Ausgeben eines Signals, das anzeigt, dass der berechnete Kontrast am größten ist, eine Einheit zum Auswählen/Speichern zweiter Kandidaten-Graphen zum Ausgeben der Kandidaten-Graphen mit dem größten Kontrast aus den darin gespeicherten zweiten Kandidaten-Graphen in Reaktion auf das Signal, das anzeigt, dass der berechnete Kontrast der größte ist, eine Einheit zum Bestimmen zweiter bis fünfter Indikatoren zum Bestimmen des Orientierungs-Koeffizienten eines Graphen mit dem größten Kontrast aus den Horizontalachsenprojektionsgraphen; des Orientierungs-Koeffizienten eines Graphen mit dem größten Kontrast aus den Vertikalachsenprojektionsgraphen als einen zweiten Indikator; des Skalen-Koeffizienten eines Graphen mit dem größten Kontrast aus den Horizontalachsenprojektionsgraphen als einen vierten Indikator; und des Skalen-Koeffizienten eines Graphen mit dem größten Kontrast aus den Vertikalachsenprojektionsgraphen als einen fünften Indikator, und eine Textur-Deskriptor-Ausgabeeinheit zum Kombinieren des ersten Indikators, des zweiten bis fünften Indikators und des vorgegebenen Vektors und zum Ausgeben des Kombinationsergebnisses als die Textur-Deskriptoren des entsprechenden Bildes.
  • Kurze Beschreibung der Zeichnungen
  • Die vorgenannten Aufgaben und Vorteile der vorliegenden Erfindung werden offensichtlicher, indem bevorzugte Ausführungen davon ausführlich beschrieben werden, wobei Bezug auf die beigefügten Zeichnungen genommen wird, bei denen:
  • 1A und 1B Flussdiagramme sind, die ein Bildtextur-Deskriptor-Wiedergewinnungsverfahren nach der vorliegenden Erfindung zeigen;
  • 2 ein Blockdiagramm einer Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung nach der vorliegenden Erfindung ist; und
  • 3 perzeptorische Durchsuchungskomponenten (perceptual browsing components) zeigt, die durch Simulation auf Basis des Bildtextur-Deskriptor-Wiedergewinnungsverfahrens nach der vorliegenden Erfindung aus Brodatz-Texturbildern extrahiert wurden.
  • Beste Art der Ausführung der Erfindung
  • Hierin werden im Folgenden Ausführungen der vorliegenden Erfindung mit Bezugnahme auf die begleitenden Zeichnungen ausführlich beschrieben.
  • Unter Bezugnahme auf 1A, die ein Bildtextur-Deskriptor-Wiedergewinnungsverfahren nach der vorliegenden Erfindung zeigt, wird unter der Annahme, dass N eine vorgegebene positive ganze Zahl ist, ein Eingabebild bestehend aus N×N Pixeln, wie zum Beispiel 128×128 Pixel, unter Verwendung eines Gabor-Filters gefiltert (Schritt 100). Der Gabor-Filter besteht aus Filtern mit unterschiedlichen Orientierungs-Koeffizienten und unterschiedlichen Skalen-Koeffizienten. Unter der Annahme, dass C1 und C2 vorgegebene positive ganze Zahlen sind, wird das Eingabebild mit Filtern gefiltert, die C1 Arten von Orientierungs-Koeffizienten und C2 Arten von Skalen-Koeffizienten haben, und die Filter geben C1×C2 Arten gefilterter Bilder aus.
  • Nächstfolgend werden das Mittel und die Varianz von Pixeln für jede der C1×C2 Arten gefilterter Bilder berechnet und dann wird ein Vektor Z unter Verwendung des Mittels und der Varianz bestimmt (Schritt 102).
  • Dann werden die gefilterten Bilder auf x- und y-Achsen projiziert, um x-Projektionsgraphen und y-Projektionsgraphen zu gewinnen (Schritt 104). Der normalisierte Autokorrelations(NAC)-Wert für jeden Graphen P(i) (i ist eine Zahl von 1 bis N), bezeichnet durch NAC(k), wird mit der folgenden Formel (1) berechnet:
    Figure 00100001
    wobei eine Pixelposition durch i dargestellt wird, die Projektionsgraphen, die durch Pixel der Pixelposition i ausgedrückt werden, durch P(i) dargestellt werden und k eine Zahl von 1 bis N ist (N ist eine positive ganze Zahl).
  • Nächstfolgend werden lokale Maximalwerte P_magn (i) und lokale Minimalwerte von V_magn (i) bestimmt, bei denen das berechnete NAC(k) eine Spitze und ein Tal lokal in einem vorgegebenen Abschnitt bildet (Schritt 108).
  • Nun wird Kontrast als die folgende Formel (2) definiert:
    Figure 00110001
    (Schritt 110).
  • Außerdem werden die Graphen, die die folgende Formel (3) erfüllen, als erste Kandidaten-Graphen ausgewählt (Schritt 112): Sd ≤ α (3)
  • wobei d und S das Mittel und die Standardabweichung der lokalen Maximalwerte P_magni (i) sind und α ein vorgegebener Schwellenwert ist.
  • Unter Bezugnahme auf 1B wird modifiziertes agglomerierendes Gruppieren auf die ersten Kandidaten-Graphen angewendet, um zweite Kandidaten-Graphen auszuwählen (Schritt 114). Ein modifizierter agglomerierender Gruppierungsalgorithmus ist ein auf geeignete Weise modifizierter Algorithmus zum agglomerierenden Gruppieren, der von R. O. Duda und P. E. Hart in „Pattern Classification and Scene Analysis, John Wiley and Sons, New York, 1973," offengelegt wird und der nun kurz beschrieben wird. Zunächst sei bei N Graphen P1, ..., PN das Mittel und die Standardabweichung von Abständen zwischen Spitzen di und Si und jeder Graph hat einen zweidimensionalen Vektor, der (di, Si) entspricht. Nun wird Pi unter Verwendung des zweidimensionalen Vektors, der (di, Si) entspricht, wie folgt gruppiert. Unter der Annahme, dass die gewünschte Anzahl von Gruppierungen Mc ist, kann in Bezug auf die anfängliche Anzahl von Gruppierungen N jede Gruppierung Ci so ausgedrückt werden, dass C1 = {P1}, C2 = {P2}, ..., CN = {PN}. Wenn die Anzahl von Gruppierungen kleiner als Mc ist, wird das Gruppieren gestoppt. Nächstfolgend werden zwei Gruppierungen Ci und Cj bestimmt, die am weitesten voneinander entfernt sind. Wenn der Abstand zwischen Ci und Cj größer ist als ein vorgegebener Schwellenwert, wird das Gruppieren gestoppt. Andernfalls werden Ci und Cj vereinigt, um eine der zwei Gruppierungen zu entfernen. Dieser Ablauf wird wiederholt durchgeführt, bis die Anzahl von Gruppierungen eine vorgegebene Anzahl erreicht. Dann wird aus den gruppierten Gruppierungen die Gruppierung mit den meisten Graphen ausgewählt und Graphen in der ausgewählten Gruppierung werden als Kandidaten-Graphen ausgewählt.
  • Nun werden die zweiten Kandidaten-Graphen in drei Typen klassifiziert (Schritt 116). Die Klassifizierung wird gemäß der Anzahl von Graphen durchgeführt, die mit einem Filter gefiltert werden, das Skalen- oder Orientierungs-Koeffizienten hat, die nahe an denen eines Filters liegen, das zum Filtern der zweiten Kandidaten-Graphen verwendet wird, oder mit ihnen identisch sind. Hierin werden im Folgenden zur Vereinfachung der Erklärung die Graphen, die mit einem Filter gefiltert werden, das einen bestimmten Skalen-Koeffizienten oder einen konstanten Orientierungs-Koeffizienten hat, als Graphen mit bestimmtem Skalen-Koeffizienten oder Graphen mit bestimmtem Orientierungs-Koeffizienten bezeichnet.
  • Genauer gesagt wird erstens in dem Fall, dass es einen oder mehrere Graphen gibt, die Skalen- oder Orientierungs-Koeffizienten haben, die mit denen eines pertinenten Kandidaten-Graphen identisch sind, und einen oder mehrere Graphen gibt, die Skalen- oder Orientierungs-Koeffizienten haben, die nahe an denen des pertinenten Kandidaten-Graphen liegen, der pertinente Kandidaten-Graph als ein Graph des C1-Typs klassifiziert. Zweitens wird in dem Fall, dass es einen oder mehrere Graphen gibt, die Skalen- oder Orientierungs-Koeffizienten haben, die mit denen eines pertinenten Kandidaten-Graphen identisch sind, aber es keinen Graphen gibt, der Skalen- oder Orientierungs-Koeffizienten hat, die nahe an denen des pertinenten Kandidaten-Graphen liegen, der pertinente Kandidaten-Graph als ein Graph des C2-Typs klassifiziert. Drittens wird in dem Fall, dass es keinen Graphen gibt, der Skalen- oder Orientierungs-Koeffizienten hat, die mit denen eines pertinenten Kandidaten-Graphen identisch sind oder nahe an diesen liegen, der pertinente Kandidaten-Graph als ein Graph des C3-Typs klassifiziert. Dann werden die Anzahlen von Graphen die zu jedem der Typen C1, C2 und C3 gehören, gezählt, um mit N1, N2 bzw. N3 bezeichnet zu werden, und die jeweiligen Gewichte der Graphen, die zu jedem der Typen C1, C2 und C3 gehören, werden gezählt, um mit W1, W2 bzw. W3 bezeichnet zu werden, wobei dies im Folgenden beschrieben wird.
  • Es wird nun unter Verwendung der bestimmten Anzahlen N1, N2 und N3 und der Gewichte W1, W2 und W3 die folgende Berechnung durchgeführt:
    Figure 00130001
    wobei das Ergebnis M als ein erster Indikator V1 bestimmt wird, der einen Textur-Deskriptor bildet (Schritt 118).
  • In Bezug auf die zweiten Kandidaten-Graphen werden die Orientierungs-Koeffizienten und Skalen-Koeffizienten von Graphen, die den größten Kontrast aufweisen, als zweiter bis fünfter Indikator bestimmt (Schritt 120). Genauer gesagt wird der Orientierungs-Koeffizient eines Graphen mit dem größten Kontrast aus den x-Projektionsgraphen als ein zweiter Indikator V2 bestimmt. Außerdem wird der Orientierungs-Koeffizient eines Graphen mit dem größten Kontrast aus den y-Projektionsgraphen als ein dritter Indikator V3 bestimmt. Der Skalen-Koeffizient eines Graphen mit dem größten Kontrast aus den x-Projektionsgraphen wird als ein vierter Indikator V2 bestimmt. Außerdem wird der Skalen-Koeffizient eines Graphen mit dem größten Kontrast aus den y-Projektionsgraphen als ein fünfter Indikator V5 bestimmt.
  • Unter Verwendung des in dem Schritt 118 bestimmten ersten Indikators V1, des zweiten bis fünften Indikators V2, V3, V4 und V5 und des in dem Schritt 102 bestimmten Vektors Z wird der Textur-Deskriptor, das heißt der Texturmerkmalvektor, auf {[V1, V2, V3, V4, V5], Z} eingestellt (Schritt 122).
  • Ein großer erster Indikator V1 zeigt einen hohen Grad an Strukturiertheit der Textur eines Bildes an. In Versuchen wurde nachgewiesen, dass der erste Indikator V1 die Struk turiertheit der Textur eines Bildes recht gut darstellt. Der zweite und dritte Indikator V2 und V3 stellen zwei quantisierte Orientierungen dar, bei denen die Strukturiertheit am stärksten erfasst wird. Der vierte und fünfte Indikator V4 und V5 stellen zwei quantisierte Skalen dar, bei denen die Strukturiertheit am stärksten erfasst wird.
  • Der Textur-Deskriptor wird als ein Index eines Bildes bei Durchsuchungs- oder Such-Wiedergewinnungs-Anwendungen verwendet. Im Besonderen wird der Bildtextur-Deskriptor, der mit dem Bildtextur-Deskriptor-Wiedergewinnungsverfahren nach der vorliegenden Erfindung wiedergewonnen wird, auf geeignete Weise bei Gittermarkierungen verwendet, bei denen Durchsuchungsmuster reguläre oder strukturorientierte Durchsuchungs-, d. h. oder Stickmuster sind. Demzufolge wird beim Suchen strukturell ähnlicher Muster Bildsuchen, das stärker an die Augenwahrnehmung angepasst werden kann, ermöglicht, indem das Bildtextur-Deskriptor-Wiedergewinnungsverfahren nach der vorliegenden Erfindung auf die Anwendungen auf Basis des strukturorientierten Durchsuchens angewendet wird. Daher können unter den Indikatoren, die Textur-Deskriptoren bilden, die mit dem Bildtextur-Deskriptor-Wiedergewinnungsverfahren nach der vorliegenden Erfindung wiedergewonnen werden, der erste bis fünfte Indikator V1, V2, V3, V4 und V5 als perzeptorische Durchsuchungskomponenten (perceptual browsing components) bezeichnet werden.
  • Außerdem werden in Bezug auf jedes gefilterte Bild das Mittel und die Varianz von Pixelwerten berechnet. Der unter Verwendung des Mittels und der Varianz gewonnene Vektor Z kann als Ähnlichkeits-Wiedergewinnungskomponenten (similarity retrieval components) bezeichnet werden.
  • Mit anderen Worten ermöglicht bei dem Bildtextur-Deskriptor-Wiedergewinnungsverfahren nach der vorliegenden Erfindung der Textur-Deskriptor, dass Arten von Texturstrukturen, die in einem Bild vorhanden sind, perzeptorisch erfasst werden können.
  • Es wurde beschrieben, dass ein erster Indikator V1, der ein recht guter Indikator für die Strukturiertheit der Textur eines Bildes ist, ein zweiter und dritter Indikator V2 und V3, die zwei quantisierte Orientierungen darstellen, bei denen die Strukturiertheit am stärksten erfasst wird, ein vierter und fünfter Indikator V4 und V5, die zwei quantisierte Skalen darstellen, bei denen die Strukturiertheit am stärksten erfasst wird, als die Textur-Des kriptoren des Bildes verwendet werden. Jedoch wird die oben beschriebene Ausführung lediglich in einem deskriptiven Sinn verwendet und nicht zum Zweck der Beschränkung. Ein einzelner Indikator, der am stärksten für die Charakteristiken eines Bildes geeignet ist, und willkürlich ausgewählte mehrere Indikatoren können ebenfalls als der/die Textur-Deskriptor(en) des Bildes verwendet werden. Daher ist die oben beschriebene Ausführung nicht als eine Beschränkung des Umfangs der Erfindung gedacht.
  • Außerdem kann das Bildtextur-Deskriptor-Wiedergewinnungsverfahren mit einem Computerprogramm programmiert werden. Codes und Codesegmente, die das Computerprogramm bilden, können leicht von einem Computerprogrammierer auf dem Gebiet hergeleitet werden. Außerdem wird das Programm in computerlesbaren Medien gespeichert und kann von dem Computer gelesen und ausgeführt werden, um dadurch das Bildtextur-Deskriptor-Wiedergewinnungsverfahren auszuführen. Zu den Medien gehören Magnetaufzeichnungsmedien, optische Aufzeichnungsmedien, Trägerwellenmedien und Ähnliches.
  • Außerdem kann das Bildtextur-Deskriptor-Wiedergewinnungsverfahren durch eine Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung ausgeführt werden. 2 ist ein Blockdiagramm einer Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung nach der vorliegenden Erfindung. Mit Bezugnahme auf 2 enthält die Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung einen Gabor-Filter 200, eine Bild-Mittel/Varianz-Berechnungseinheit 202, einen x-Achsen-Projektor 204, einen y-Achsen-Projektor 205, eine NAC-Berechnungseinheit 206 und eine Spitzen-Erfassungs-/Analysiereinheit 208. Außerdem enthält die Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung eine Mittel/Varianz-Berechnungseinheit 210, eine Einheit 212 zum Auswählen/Speichern erster Kandidaten-Graphen, eine Einheit 214 zum Auswählen/Speichern zweiter Kandidaten-Graphen, eine Klassifiziereinheit 216, eine Einheit 218 zum Bestimmen erster Indikatoren, eine Kontrastberechnungseinheit 220, eine Einheit 222 zum Bestimmen zweiter bis fünfter Indikatoren und eine Textur-Deskriptor-Ausgabeeinheit 224.
  • Bei Betrieb der Bildtextur-Deskriptor-Wiedergewinnungsvorrichtung filtert der Gabor-Filter 200, unter der Annahme, dass N eine vorgegebene positive ganze Zahl ist, ein Eingabebild, bestehend aus N×N Pixeln, wie zum Beispiel 128×128 Pixel, unter Verwendung von Filtern (nicht gezeigt), die unterschiedliche Orientierungs-Koeffizienten und un terschiedliche Skalen-Koeffizienten haben, und gibt gefilterte Bilder (image_filtered) aus. Unter der Annahme, dass C1 und C2 vorgegebene positive ganze Zahlen sind, wird das Eingabebild mit Filtern gefiltert, die C1 Arten von Orientierungs-Koeffizienten und C2 Arten von Skalen-Koeffizienten haben, und die Filter geben C1×C2 Arten gefilterter Bilder aus.
  • Die Bild-Mittel/Varianz-Berechnungseinheit 202 berechnet das Mittel und die Varianz von Pixeln für jede der C1×C2 Arten gefilterter Bilder, um dann unter Verwendung des Mittels und der Varianz einen Vektor Z zu bestimmen, und gibt den bestimmten Vektor Z aus.
  • Der x-Achsen-Projektor 204 und der y-Achsen-Projektor 205 projizieren die gefilterten Bilder auf x- und y-Achsen, um x-Projektionsgraphen und y-Projektionsgraphen zu gewinnen. Mit anderen Worten geben der x-Achsen-Projektor 204 und der y-Achsen-Projektor 205, unter der Annahme, dass eine Pixelposition durch i (i ist eine Zahl von 1 bis N) dargestellt wird, die Projektionsgraphen P(i) aus, die durch Pixel der Pixelposition i (i – 1, ..., N) ausgedrückt werden.
  • Die NAC-Berechnungseinheit 206 berechnet den normalisierten Autokorrelations(NAC)-Wert für jeden Graphen P(i), der durch NAC(k) bezeichnet wird, unter Verwendung der Formel (1).
  • Die Spitzen-Erfassungs-/Analysiereinheit 208 erfasst lokale Maximalwerte P_magn (i) und lokale Minimalwerte von V_magn (i), bei denen das berechnete NAC(k) eine lokale Spitze und ein lokales Tal in einem vorgegebenen Abschnitt bildet.
  • Die Mittel/Varianz-Berechnungseinheit 210 berechnet das Mittel d und die Standardabweichung S der lokalen Maximalwerte P_magn (i) und gibt diese aus. Die Einheit 212 zum Auswählen/Speichern erster Kandidaten-Graphen empfängt das Mittel d und die Standardabweichung S, wählt die Graphen, die die Formel (3) erfüllen, als erste Kandidaten-Graphen (1st_CAND) aus und speichert die ausgewählten ersten Kandidaten-Graphen, bei denen α ein vorgegebener Schwellenwert ist.
  • Die Einheit 214 zum Auswählen/Speichern zweiter Kandidaten-Graphen wendet modifiziertes agglomerierendes Gruppieren auf die ersten Kandidaten-Graphen an, um diese als zweite Kandidaten-Graphen (2nd_CAND) auszuwählen.
  • Die Klassifiziereinheit 216 zählt, wie unter Bezugnahme auf 1B beschrieben, die Anzahlen von Graphen, die zu jedem der Typen C1, C2 und C3 gehören, um sie mit N1, N2 bzw. N3 in Bezug auf die zweiten Kandidaten-Graphen zu bezeichnen und gibt Datensignale Ni aus, die die Anzahl von Graphen jedes Typs anzeigen. Außerdem bestimmt die Klassifiziereinheit 216 vorgegebene Gewichte der Graphen, die zu jedem der Typen C1, C2 und C3 gehören, um sie dann mit W1, W2 bzw. W3 zu bezeichnen, und gibt Datensignale Wj aus, die Gewichte anzeigen, die auf jeden Typ anzuwenden sind.
  • Die Einheit 218 zum Bestimmen erster Indikatoren berechnet M gemäß der Darstellung durch die Formel (4) unter Verwendung der bestimmten Anzahlen N1, N2 und N3 und der Gewichte W1, W2 und W3 und bestimmt das Berechnungsergebnis als einen ersten Indikator V1, der einen Textur-Deskriptor bildet, und gibt ihn aus.
  • Die Kontrastberechnungseinheit 220 berechnet den Kontrast mit der Formel (2) und gibt ein Signal Cont_max aus, das anzeigt, dass der berechnete Kontrast am größten ist.
  • Die Einheit 214 zum Auswählen/Speichern zweiter Kandidaten-Graphen gibt die Kandidaten-Graphen mit dem größten Kontrast aus den darin gespeicherten zweiten Kandidaten-Graphen an die Einheit 222 zum Bestimmen zweiter bis fünfter Indikatoren aus.
  • Die Einheit 222 zum Bestimmen zweiter bis fünfter Indikatoren bestimmt die Orientierungs-Koeffizienten und Skalen-Koeffizienten von Graphen, die den größten Kontrast haben, als zweiten bis fünften Indikator. Mit anderen Worten wird der Orientierungs-Koeffizient eines Graphen mit dem größten Kontrast aus den x-Projektionsgraphen als ein zweiter Indikator V2 bestimmt. Außerdem wird der Orientierungs-Koeffizient eines Graphen mit dem größten Kontrast aus den y-Projektionsgraphen als ein zweiter Indikator V3 bestimmt. Der Skalen-Koeffizient eines Graphen mit dem größten Kontrast aus den x-Projektionsgraphen wird als ein vierter Indikator V4 bestimmt. Außerdem wird der Skalen-Koeffizient eines Graphen mit dem größten Kontrast aus den y-Projektionsgraphen als ein fünfter Indikator V5 bestimmt.
  • Die Textur-Deskriptor-Ausgabeeinheit 224 stellt den Textur-Deskriptor, das heißt den Texturmerkmalvektor, als {[V1, V2, V3, V4, V5], Z} ein und gibt ihn aus, wobei erste Indikator V1, der von der Einheit 218 zum Bestimmen erster Indikatoren ausgegeben wird, der zweite bis fünfte Indikator V2, V3, V4 und V5, die von der Einheit 222 zum Bestimmen zweiter bis fünfter Indikatoren ausgegeben werden, sowie der Vektor Z, der von der Bild-Mittel/Varianz-Berechnungseinheit 202 ausgegeben wird, verwendet werden.
  • 3 zeigt perzeptorische Durchsuchungskomponenten (perceptual browsing components), die durch Simulation auf Basis des Bildtextur-Deskriptor-Wiedergewinnungsverfahrens nach der vorliegenden Erfindung aus Brodatz-Texturbildern extrahiert wurden.
  • Wie oben beschrieben wird, können gemäß dem Bildtextur-Deskriptor-Wiedergewinnungsverfahren der vorliegenden Erfindung Textur-Deskriptoren wiedergewonnen werden, die ermöglichen, dass in einem Bild vorhandene Arten von Texturstruktur perzeptorisch erfasst werden können.
  • Gewerbliche Verwertbarkeit
  • Die vorliegende Erfindung kann auf die Bereiche von Bilddurchsuchungs- oder Such-Wiedergewinnungs-Anwendungen angewendet werden.

Claims (9)

  1. Verfahren zum Beschreiben von Texturmerkmalen eines Bildes, das umfasst: (a) Filtern von Eingabebildern unter Verwendung vorgegebener Filter mit verschiedenen Orientierungskoeffizienten; (b) Summieren und Normalisieren der Pixelwerte der gefilterten Bilder auf Achsen jeder vorgegebenen Richtung, um Datengruppen zu gewinnen, die aus Durchschnittswerten direktionaler Pixelwerte bestehen; (c) Auswählen von Kandidaten-Datengruppen aus den Datengruppen mit einem vorgegebenen Klassifizierungsverfahren; (d) Bestimmen einer Vielzahl von Indikatoren auf Basis von Orientierungs-Koeffizienten der Filter, die beim Filtern der Kandidaten-Datengruppen verwendet werden; und (e) Bestimmen der Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes.
  2. Verfahren nach Anspruch 1, wobei Schritt (a) des Weiteren umfasst: (a-1) Filtern von Eingabebildern unter Verwendung vorgegebener Filter mit unterschiedlichen Skalen-Koeffizienten, und Schritt (d) des Weiteren umfasst: (d-1) Bestimmen einer Vielzahl von Indikatoren auf Basis von Skalen-Koeffizienten der Filter, die beim Filtern der Kandidaten-Datengruppen verwendet werden.
  3. Verfahren nach Anspruch 2, das des Weiteren umfasst: (f) Bestimmen eines anderen Indikators auf Basis des Vorhandenseins von Datengruppen, die mit Filtern gefiltert werden, die Skalen-Koeffizienten oder Orientierungs-Koeffizienten haben, die nahe an den Skalen-Koeffizienten oder Orientierungs-Koeffizienten der Filter liegen, die beim Filtern der ausgewählten Kandidaten-Datengruppen verwendet werden, oder mit ihnen identisch sind.
  4. Verfahren nach Anspruch 3, das des Weiteren umfasst: (g) Berechnen des Mittels und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder und Bestimmen eines vorgegebenen Vektors unter Verwendung des berechneten Mittels und der berechneten Varianz.
  5. Computerprogramm, das, wenn es ausgeführt wird, bewirkt, dass das Verfahren nach einem der vorangehenden Ansprüche durchgeführt wird.
  6. Vorrichtung zum Beschreiben von Texturmerkmalen eines Bildes, die umfasst: eine Einrichtung (200) zum Filtern von Eingabebildern unter Verwendung vorgegebener Filter, die unterschiedliche Orientierungs-Koeffizienten haben; eine Einrichtung (206) zum Summieren und Normalisieren der Pixelwerte der gefilterten Bilder auf Achsen jeder vorgegebenen Richtung, um Datengruppen zu gewinnen, die aus Durchschnittswerten direktionaler Pixelwerte bestehen; eine Einrichtung (212, 214) zum Auswählen von Kandidaten-Datengruppen aus den Datengruppen mit einem vorgegebenen Klassifizierungsverfahren; eine Erzeugungseinheit zum Bestimmen einer Vielzahl von Indikatoren auf Basis von Orientierungs-Koeffizienten der Filter, die beim Filtern der Kandidaten-Datengruppen verwendet werden; und eine Ausdrückeinheit (224) zum Bestimmen der Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes.
  7. Vorrichtung nach Anspruch 6, wobei die Filtereinrichtung (200) des Weiteren so eingerichtet ist, dass sie Eingabebilder unter Verwendung vorgegebener Filter mit unterschiedlichen Skalen-Koeffizienten filtert, und die Erzeugungseinheit so eingerichtet ist, dass sie eine Vielzahl von Indikatoren auf Basis von Skalen-Koeffizienten der Filter bestimmt, die beim Filtern der Kandidaten-Datengruppen verwendet werden.
  8. Vorrichtung nach Anspruch 7, wobei die Erzeugungseinheit des Weiteren so eingerichtet ist, dass sie einen anderen Indikator auf Basis des Vorhandenseins von Datengruppen bestimmt, die mit Filtern gefiltert werden, die Skalen-Koeffizienten oder Orientierungs-Koeffizienten haben, die nahe an den Skalen-Koeffizienten oder Orientie rungs-Koeffizienten der Filter liegen, die beim Filtern der ausgewählten Kandidaten-Datengruppen verwendet werden, oder mit ihnen identisch sind.
  9. Vorrichtung nach Anspruch 8, die des Weiteren eine Einrichtung (210) zum Berechnen des Mittels und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder sowie eine Einrichtung zum Bestimmen eines vorgegebenen Vektors unter Verwendung des berechnen Mittels und der berechneten Varianz umfasst.
DE60037919T 1999-02-05 2000-02-03 Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür Expired - Lifetime DE60037919T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11874099P 1999-02-05 1999-02-05
US118740P 1999-02-05

Publications (2)

Publication Number Publication Date
DE60037919D1 DE60037919D1 (de) 2008-03-13
DE60037919T2 true DE60037919T2 (de) 2009-07-09

Family

ID=22380454

Family Applications (3)

Application Number Title Priority Date Filing Date
DE60037919T Expired - Lifetime DE60037919T2 (de) 1999-02-05 2000-02-03 Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür
DE60036082T Expired - Lifetime DE60036082T2 (de) 1999-02-05 2000-02-03 Verfahren und vorrichtung zur wiederauffindung von texturbildern
DE60045319T Expired - Lifetime DE60045319D1 (de) 1999-02-05 2000-02-03 Verfahren und Vorrichtung zum Wiederauffinden von Texturbildern

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE60036082T Expired - Lifetime DE60036082T2 (de) 1999-02-05 2000-02-03 Verfahren und vorrichtung zur wiederauffindung von texturbildern
DE60045319T Expired - Lifetime DE60045319D1 (de) 1999-02-05 2000-02-03 Verfahren und Vorrichtung zum Wiederauffinden von Texturbildern

Country Status (16)

Country Link
US (3) US6624821B1 (de)
EP (3) EP1777658B1 (de)
JP (2) JP2002536750A (de)
KR (5) KR100444778B1 (de)
CN (2) CN100405399C (de)
AT (3) ATE371231T1 (de)
AU (1) AU775858B2 (de)
BR (1) BR0007956A (de)
CA (2) CA2625839A1 (de)
DE (3) DE60037919T2 (de)
MX (1) MXPA01007845A (de)
MY (2) MY138084A (de)
NZ (1) NZ513144A (de)
SG (1) SG142124A1 (de)
TW (1) TW528990B (de)
WO (1) WO2000046750A1 (de)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003252765B2 (en) * 1999-02-05 2006-06-29 Samsung Electronics Co., Ltd. Image texture retrieving method and apparatus thereof
KR100308456B1 (ko) 1999-07-09 2001-11-02 오길록 주파수 공간상에서의 질감표현방법 및 질감기반 검색방법
KR100355404B1 (ko) * 1999-12-03 2002-10-11 삼성전자 주식회사 주파수 공간상에서의 가보 필터를 이용한 질감표현방법 및질감기반 영상 검색방법
US6977659B2 (en) * 2001-10-11 2005-12-20 At & T Corp. Texture replacement in video sequences and images
US7606435B1 (en) 2002-02-21 2009-10-20 At&T Intellectual Property Ii, L.P. System and method for encoding and decoding using texture replacement
KR100908384B1 (ko) * 2002-06-25 2009-07-20 주식회사 케이티 블록상관계수를 이용한 영역기반 질감 추출 장치 및 그 방법
JP2005122361A (ja) * 2003-10-15 2005-05-12 Sony Computer Entertainment Inc 画像処理装置及び方法、コンピュータプログラム、記録媒体
US7415145B2 (en) * 2003-12-30 2008-08-19 General Electric Company Methods and apparatus for artifact reduction
JP4747881B2 (ja) * 2006-02-27 2011-08-17 セイコーエプソン株式会社 演算処理装置によるデータ変換方法、テクスチャの作成方法、プログラム、記録媒体、及びプロジェクタ。
JP2009539841A (ja) * 2006-06-06 2009-11-19 トラークス,インコーポレイテッド 自己免疫疾患の治療における抗cd3抗体の投与
EP1870836A1 (de) * 2006-06-22 2007-12-26 THOMSON Licensing Verfahren und Vorrichtung zur Bestimmung eines Deskriptors für ein Signal, das ein Multimedia-Element darstellt, Vorrichtung zur Gewinnung von Elementen in einer Datenbank, Vorrichtung zur Klassifizierung von Multimedia-Elementen in einer Datenbank
JP5358083B2 (ja) 2007-11-01 2013-12-04 株式会社日立製作所 人物画像検索装置及び画像検索装置
US7924290B2 (en) * 2007-05-30 2011-04-12 Nvidia Corporation Method and system for processing texture samples with programmable offset positions
KR101394154B1 (ko) * 2007-10-16 2014-05-14 삼성전자주식회사 미디어 컨텐츠 및 메타데이터를 부호화하는 방법과 그 장치
JO3076B1 (ar) 2007-10-17 2017-03-15 Janssen Alzheimer Immunotherap نظم العلاج المناعي المعتمد على حالة apoe
US8483431B2 (en) 2008-05-27 2013-07-09 Samsung Electronics Co., Ltd. System and method for estimating the centers of moving objects in a video sequence
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
US8107726B2 (en) * 2008-06-18 2012-01-31 Samsung Electronics Co., Ltd. System and method for class-specific object segmentation of image data
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
US8073818B2 (en) * 2008-10-03 2011-12-06 Microsoft Corporation Co-location visual pattern mining for near-duplicate image retrieval
KR101194605B1 (ko) * 2008-12-22 2012-10-25 한국전자통신연구원 시간 연속적 텍스쳐 합성 장치 및 방법
KR101028628B1 (ko) 2008-12-29 2011-04-11 포항공과대학교 산학협력단 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치
US8321422B1 (en) 2009-04-23 2012-11-27 Google Inc. Fast covariance matrix generation
US8396325B1 (en) 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8611695B1 (en) 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
RU2608646C2 (ru) 2010-12-06 2017-01-23 Сиэтл Генетикс, Инк. Гуманизированные антитела к LIV-1 и их применение для лечения рака
US8738280B2 (en) * 2011-06-09 2014-05-27 Autotalks Ltd. Methods for activity reduction in pedestrian-to-vehicle communication networks
MY165038A (en) 2011-10-28 2018-02-28 Prothena Biosciences Ltd Humanized antibodies that recognize alpha-synuclein
CA2863953A1 (en) 2012-01-27 2013-08-01 Neotope Biosciences Limited Humanized antibodies that recognize alpha-synuclein
US20130309223A1 (en) 2012-05-18 2013-11-21 Seattle Genetics, Inc. CD33 Antibodies And Use Of Same To Treat Cancer
UA118441C2 (uk) 2012-10-08 2019-01-25 Протена Біосаєнсиз Лімітед Антитіло, що розпізнає альфа-синуклеїн
CA2902026C (en) 2013-03-13 2023-08-29 Prothena Biosciences Limited Tau immunotherapy
US10513555B2 (en) 2013-07-04 2019-12-24 Prothena Biosciences Limited Antibody formulations and methods
US9951131B2 (en) 2013-07-12 2018-04-24 Prothena Biosciences Limited Antibodies that recognize IAPP
WO2015004632A1 (en) 2013-07-12 2015-01-15 Neotope Biosciences Limited Antibodies that recognize iapp
KR101713690B1 (ko) * 2013-10-25 2017-03-08 한국전자통신연구원 특징 선택 방법을 이용한 비주얼 기술자 추출 방법 및 시스템
EP3071974A2 (de) 2013-11-19 2016-09-28 Prothena Biosciences Limited Überwachung der immuntherapie von lewy-körperchen-krankheit aus verstopfungssymptomen
US10407506B2 (en) 2014-03-12 2019-09-10 Prothena Biosciences Limited Anti-MCAM antibodies and associated methods of use
US20170158755A1 (en) 2014-03-12 2017-06-08 Prothena Biosciences Limited Anti-laminin4 antibodies specific for lg1-3
TW201623331A (zh) 2014-03-12 2016-07-01 普羅帝納生物科學公司 抗黑色素瘤細胞黏著分子(mcam)抗體類及使用彼等之相關方法
EP3116907A1 (de) 2014-03-12 2017-01-18 Prothena Biosciences Limited Für lg4-5 spezifische anti-laminin4-antikörper
WO2015136468A1 (en) 2014-03-13 2015-09-17 Prothena Biosciences Limited Combination treatment for multiple sclerosis
US10562973B2 (en) 2014-04-08 2020-02-18 Prothena Bioscience Limited Blood-brain barrier shuttles containing antibodies recognizing alpha-synuclein
US9840553B2 (en) 2014-06-28 2017-12-12 Kodiak Sciences Inc. Dual PDGF/VEGF antagonists
KR102260805B1 (ko) * 2014-08-06 2021-06-07 삼성전자주식회사 이미지 검색 장치 및 그 방법
US20160075772A1 (en) 2014-09-12 2016-03-17 Regeneron Pharmaceuticals, Inc. Treatment of Fibrodysplasia Ossificans Progressiva
KR102258100B1 (ko) * 2014-11-18 2021-05-28 삼성전자주식회사 텍스쳐 처리 방법 및 장치
TWI711631B (zh) 2015-01-28 2020-12-01 愛爾蘭商普羅佘納生物科技有限公司 抗甲狀腺素運送蛋白抗體
TWI718121B (zh) 2015-01-28 2021-02-11 愛爾蘭商普羅佘納生物科技有限公司 抗甲狀腺素運送蛋白抗體
TWI786505B (zh) 2015-01-28 2022-12-11 愛爾蘭商普羅佘納生物科技有限公司 抗甲狀腺素運送蛋白抗體
US20160319009A1 (en) 2015-04-29 2016-11-03 Regeneron Pharmaceuticals, Inc. Treatment of fibrodysplasia ossificans progressiva
US10162878B2 (en) 2015-05-21 2018-12-25 Tibco Software Inc. System and method for agglomerative clustering
CN107637064A (zh) 2015-06-08 2018-01-26 深圳市大疆创新科技有限公司 用于图像处理的方法和设备
KR101627974B1 (ko) * 2015-06-19 2016-06-14 인하대학교 산학협력단 영상 블러에 강인한 영상 특징 기술자 생성 방법 및 장치
EP4302784A3 (de) 2015-06-30 2024-03-13 Seagen Inc. Anti-ntb-a-antikörper sowie zugehörige zusammensetzungen und verfahren
CN105183752B (zh) * 2015-07-13 2018-08-10 中国电子科技集团公司第十研究所 关联查询红外视频图像特定内容的方法
WO2017046774A2 (en) 2015-09-16 2017-03-23 Prothena Biosciences Limited Use of anti-mcam antibodies for treatment or prophylaxis of giant cell arteritis, polymyalgia rheumatica or takayasu's arteritis
EP3350226A2 (de) 2015-09-16 2018-07-25 Prothena Biosciences Limited Verwendung von anti-mcam-antikörpern zur behandlung oder prophylaxe von riesenzellarteriitis, polymyalgia rheumatica oder takayasu-arteriitis
IL260323B2 (en) 2015-12-30 2025-01-01 Kodiak Sciences Inc Antibodies and their conjugates
WO2017149513A1 (en) 2016-03-03 2017-09-08 Prothena Biosciences Limited Anti-mcam antibodies and associated methods of use
UA125898C2 (uk) 2016-03-04 2022-07-06 Джн Байосайєнсіз, Ллк Антитіла до tigit
WO2017153955A1 (en) 2016-03-09 2017-09-14 Prothena Biosciences Limited Use of anti-mcam antibodies for treatment or prophylaxis of granulomatous lung diseases
WO2017153953A1 (en) 2016-03-09 2017-09-14 Prothena Biosciences Limited Use of anti-mcam antibodies for treatment or prophylaxis of granulomatous lung diseases
FI3452507T3 (fi) 2016-05-02 2022-12-15 Tau-immuunihoito
CN109415434B (zh) 2016-05-02 2022-12-30 普罗塞纳生物科学有限公司 识别tau的抗体
IL262726B2 (en) 2016-05-02 2024-07-01 Prothena Biosciences Ltd Antibodies recognizing tau
WO2017208210A1 (en) 2016-06-03 2017-12-07 Prothena Biosciences Limited Anti-mcam antibodies and associated methods of use
EP3478716A2 (de) 2016-07-02 2019-05-08 Prothena Biosciences Limited Anti-transthyretin-antikörper
EP3478715A2 (de) 2016-07-02 2019-05-08 Prothena Biosciences Limited Anti-transthyretin-antikörper
JP7076711B2 (ja) 2016-07-02 2022-05-30 プロセナ バイオサイエンシーズ リミテッド 抗トランスサイレチン抗体
AU2018250695A1 (en) 2017-04-14 2019-11-07 Kodiak Sciences Inc. Complement factor D antagonist antibodies and conjugates thereof
MX2019013045A (es) 2017-05-02 2020-02-12 Prothena Biosciences Ltd Anticuerpos que reconocen tau.
AU2017434556B2 (en) 2017-09-28 2024-11-14 F. Hoffmann-La Roche Ag Dosing regimes for treatment of synucleinopathies
MX2020003043A (es) 2017-10-06 2020-10-05 Prothena Biosciences Ltd Métodos para detectar transtiretina.
EP3508499A1 (de) 2018-01-08 2019-07-10 iOmx Therapeutics AG Antikörper zum targeting von, und andere modulatoren von, einem immunglobulingen im zusammenhang mit resistenz gegen antitumor-immunantworten und verwendungen davon
AU2019227997A1 (en) 2018-03-02 2020-09-24 Kodiak Sciences Inc. IL-6 antibodies and fusion constructs and conjugates thereof
TWI851577B (zh) 2018-06-07 2024-08-11 美商思進公司 喜樹鹼結合物
KR20210057053A (ko) 2018-08-23 2021-05-20 씨젠 인크. 항-tigit 항체
CR20210272A (es) 2018-11-26 2021-07-14 Forty Seven Inc Anticuerpos humanizados contra c-kit
CN113166727A (zh) 2018-11-28 2021-07-23 四十七公司 对消融方案耐受的基因修饰的hspc
CN109670423A (zh) * 2018-12-05 2019-04-23 依通(北京)科技有限公司 一种基于深度学习的图像识别系统、方法及介质
CN113710271B (zh) 2019-02-05 2025-03-04 西根股份有限公司 抗cd228抗体和抗体-药物缀合物
CN113544149B (zh) 2019-03-03 2024-11-15 普罗塞纳生物科学有限公司 识别tau的抗体
AU2020311579A1 (en) 2019-07-05 2022-02-03 Iomx Therapeutics Ag Antibodies binding IgC2 of IGSF11 (VSIG3) and uses thereof
KR20220075351A (ko) 2019-10-04 2022-06-08 씨젠 인크. 항-pd-l1 항체 및 항체-약물 접합체
EP4041312A4 (de) 2019-10-10 2023-12-20 Kodiak Sciences Inc. Verfahren zur behandlung einer augenstörung
EP3822288A1 (de) 2019-11-18 2021-05-19 Deutsches Krebsforschungszentrum, Stiftung des öffentlichen Rechts Gegen das cd276-antigen gerichtete antikörper, und andere modulatoren gegen das cd276-antigen, und deren verwendung
US20210253685A1 (en) 2020-01-08 2021-08-19 Regeneron Pharmaceuticals, Inc. Treatment of fibrodysplasia ossificans progressiva
CN115698069A (zh) 2020-03-26 2023-02-03 思进公司 治疗多发性骨髓瘤的方法
IL298111A (en) 2020-06-02 2023-01-01 Arcus Biosciences Inc Antibodies to tigit
EP4175668A1 (de) 2020-07-06 2023-05-10 iOmx Therapeutics AG Igv von igsf11 (vsig3) bindende antikörper und verwendungen davon
US20230295330A1 (en) 2020-08-04 2023-09-21 Seagen Inc. Anti-cd228 antibodies and antibody-drug conjugates
EP4240762A1 (de) 2020-11-03 2023-09-13 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Zielzellbeschränkte, kostimulatorische, bispezifische und bivalente anti-cd28-antikörper
WO2022162203A1 (en) 2021-01-28 2022-08-04 Vaccinvent Gmbh Method and means for modulating b-cell mediated immune responses
JP2024504493A (ja) 2021-01-28 2024-01-31 ヴァクスィーンヴェント ゲーエムベーハー B細胞媒介性免疫応答を調節するための方法及び手段
CN117120084A (zh) 2021-01-28 2023-11-24 维肯芬特有限责任公司 用于调节b细胞介导的免疫应答的方法和手段
AU2022254727A1 (en) 2021-04-09 2023-10-12 Seagen Inc. Methods of treating cancer with anti-tigit antibodies
TW202327650A (zh) 2021-09-23 2023-07-16 美商思進公司 治療多發性骨髓瘤之方法
AU2023252914A1 (en) 2022-04-13 2024-10-17 Arcus Biosciences, Inc. Combination therapy for treating trop-2 expressing cancers
CN119522237A (zh) 2022-04-13 2025-02-25 吉利德科学公司 用于治疗表达肿瘤抗原的癌症的组合疗法
CN119156228A (zh) 2022-05-02 2024-12-17 艾库斯生物科学有限公司 抗tigit抗体及其用途
WO2024068777A1 (en) 2022-09-28 2024-04-04 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Modified ace2 proteins with improved activity against sars-cov-2
WO2024097816A1 (en) 2022-11-03 2024-05-10 Seagen Inc. Anti-avb6 antibodies and antibody-drug conjugates and their use in the treatment of cancer
WO2024108053A1 (en) 2022-11-17 2024-05-23 Sanofi Ceacam5 antibody-drug conjugates and methods of use thereof
EP4491230A1 (de) 2023-07-14 2025-01-15 iOmx Therapeutics AG Gegen leukozyten-immunglobulin-lirb1 (lilrb1) und lilrb2, gerichtete kreuzspezifische antigenbindende proteine (abp) und verwendungen davon
WO2024133940A2 (en) 2022-12-23 2024-06-27 Iomx Therapeutics Ag Cross-specific antigen binding proteins (abp) targeting leukocyte immunoglobulin-like receptor subfamily b1 (lilrb1) and lilrb2, combinations and uses thereof
TW202434629A (zh) 2023-01-26 2024-09-01 愛爾蘭商歐薩爾普羅席納有限公司 以抗類澱粉β (ABETA)抗體治療神經病症之方法
WO2024191807A1 (en) 2023-03-10 2024-09-19 Seagen Inc. Methods of treating cancer with anti-tigit antibodies
WO2024249894A2 (en) 2023-06-02 2024-12-05 Arcus Biosciences, Inc. Biomarkers for predicting cancer treatment efficacy
WO2025059486A1 (en) 2023-09-15 2025-03-20 Prothena Biosciences Limited Anti-tdp-43 antibodies and uses thereof
WO2025059487A2 (en) 2023-09-15 2025-03-20 Othair Prothena Limited Cell penetrating agents and uses thereof
WO2025059515A2 (en) 2023-09-15 2025-03-20 Prothena Biosciences Limited Cell penetrating agents and uses thereof

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3010588B2 (ja) * 1991-05-01 2000-02-21 松下電器産業株式会社 パターン位置決め装置とパターン類別装置
US5579471A (en) * 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
US5659626A (en) * 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
AU4985096A (en) * 1995-03-02 1996-09-18 Parametric Technology Corporation Computer graphics system for creating and enhancing texture maps
JPH09101970A (ja) * 1995-10-06 1997-04-15 Omron Corp 画像検索方法および画像検索装置
JP3645024B2 (ja) * 1996-02-06 2005-05-11 株式会社ソニー・コンピュータエンタテインメント 描画装置及び描画方法
JPH09251554A (ja) * 1996-03-18 1997-09-22 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置
JP3609225B2 (ja) * 1996-11-25 2005-01-12 日本電信電話株式会社 類似オブジェクト検索装置
US6381365B2 (en) * 1997-08-22 2002-04-30 Minolta Co., Ltd. Image data processing apparatus and image data processing method
US6192150B1 (en) * 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US6424741B1 (en) * 1999-03-19 2002-07-23 Samsung Electronics Co., Ltd. Apparatus for analyzing image texture and method therefor
US6594391B1 (en) * 1999-09-03 2003-07-15 Lucent Technologies Inc. Method and apparatus for texture analysis and replicability determination
KR100788642B1 (ko) * 1999-10-01 2007-12-26 삼성전자주식회사 디지털 영상 텍스쳐 분석 방법
KR100355404B1 (ko) * 1999-12-03 2002-10-11 삼성전자 주식회사 주파수 공간상에서의 가보 필터를 이용한 질감표현방법 및질감기반 영상 검색방법

Also Published As

Publication number Publication date
JP2004158042A (ja) 2004-06-03
EP1453000B1 (de) 2010-12-01
EP1777658B1 (de) 2008-01-23
WO2000046750A1 (en) 2000-08-10
EP1153365A4 (de) 2002-11-06
SG142124A1 (en) 2008-05-28
KR20010113667A (ko) 2001-12-28
ATE371231T1 (de) 2007-09-15
CN100405399C (zh) 2008-07-23
CA2361492A1 (en) 2000-08-10
ATE490518T1 (de) 2010-12-15
DE60036082T2 (de) 2008-06-12
EP1777658A1 (de) 2007-04-25
US20030193510A1 (en) 2003-10-16
AU775858B2 (en) 2004-08-19
KR100444776B1 (ko) 2004-08-16
EP1453000A3 (de) 2004-10-20
AU2464600A (en) 2000-08-25
ATE385007T1 (de) 2008-02-15
US7027065B2 (en) 2006-04-11
KR20040023679A (ko) 2004-03-18
KR20040023680A (ko) 2004-03-18
KR20040023676A (ko) 2004-03-18
US20040169658A1 (en) 2004-09-02
DE60037919D1 (de) 2008-03-13
KR100483832B1 (ko) 2005-04-20
MY138084A (en) 2009-04-30
KR100452064B1 (ko) 2004-10-08
DE60036082D1 (de) 2007-10-04
KR20040023678A (ko) 2004-03-18
NZ513144A (en) 2003-05-30
EP1153365A1 (de) 2001-11-14
TW528990B (en) 2003-04-21
MXPA01007845A (es) 2004-06-22
CN1523537A (zh) 2004-08-25
EP1453000A2 (de) 2004-09-01
EP1153365B1 (de) 2007-08-22
KR100444778B1 (ko) 2004-08-18
JP2002536750A (ja) 2002-10-29
CN1341248A (zh) 2002-03-20
DE60045319D1 (de) 2011-01-13
MY128897A (en) 2007-02-28
US7199803B2 (en) 2007-04-03
BR0007956A (pt) 2002-04-09
US6624821B1 (en) 2003-09-23
KR100444777B1 (ko) 2004-08-18
CA2625839A1 (en) 2000-08-10
CN100489892C (zh) 2009-05-20

Similar Documents

Publication Publication Date Title
DE60037919T2 (de) Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür
DE60313941T2 (de) Personendetektion durch Gesichtsdetektion und Bewegungsdetektion
DE69226846T2 (de) Verfahren zur Bestimmung von Wortgrenzen im Text
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
DE60011603T2 (de) Verfahren und vorrichtung zum darstellen von und suchen nach farbbildern
DE602004008984T2 (de) Verfahren zur Erkennung von farbigen Objekten in digitalen Bildern
DE60016589T2 (de) Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes
DE69511620T2 (de) Videoverarbeitungssystem
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE4406020C1 (de) Verfahren zur automatisierten Erkennung von Objekten
DE102015209822A1 (de) Erfassungseinrichtung, Erfassungsprogramm, Erfassungsverfahren, mit Erfassungseinrichtung ausgerüstetes Fahrzeug, Parameterberechnungseinrichtung, Parameter berechnende Parameter, Parameterberechnungsprogramm, und Verfahren zum Berechnen von Parametern
DE602004002837T2 (de) Objekterkennung
DE112009005002T5 (de) Techniken zum Erkennen von Videokopien
DE69623564T2 (de) Gerät zur Extraktion von Fingerabdruckmerkmalen
DE60033580T2 (de) Verfahren und gerät zur klassifizierung eines bildes
DE60037497T2 (de) Verfahren und vorrichtung für anzeige oder auswahl von einem objekt in einem bild oder einem computerlesbaren aufzeichnungsmedium
DE102006045828B4 (de) Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul
Chen et al. Markov random fields for texture classification
DE102013210771A1 (de) Detektion eines komplexen objekts unter verwendung einer kaskade von klassifizierungseinrichtungen
DE102019105293A1 (de) Schätzung der Bewegung einer Bildposition

Legal Events

Date Code Title Description
8364 No opposition during term of opposition