[go: up one dir, main page]

DE69218656T2 - Verfahren zur zeitlichen adaptiven Filterung von verrauschten Bildsequenzen - Google Patents

Verfahren zur zeitlichen adaptiven Filterung von verrauschten Bildsequenzen

Info

Publication number
DE69218656T2
DE69218656T2 DE69218656T DE69218656T DE69218656T2 DE 69218656 T2 DE69218656 T2 DE 69218656T2 DE 69218656 T DE69218656 T DE 69218656T DE 69218656 T DE69218656 T DE 69218656T DE 69218656 T2 DE69218656 T2 DE 69218656T2
Authority
DE
Germany
Prior art keywords
frame
image
frames
estimate
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69218656T
Other languages
English (en)
Other versions
DE69218656D1 (de
Inventor
Sergei V Fogel
Mehmet Ozkan
M Ibrahim Sezan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of DE69218656D1 publication Critical patent/DE69218656D1/de
Application granted granted Critical
Publication of DE69218656T2 publication Critical patent/DE69218656T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

    Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf Rauschverringerung bei Digitalbildabfolgen, die aus verschiedenen Videoquellen genau so wie aus Spielfilmen erhalten werden können.
  • Technischer Hintergrund
  • Eine Bewegungsabschätzung, die an und für sich auf dem weiten Gebiet der Computervision (Computervisualisierung bzw. -bildverarbeitung) wichtig ist, ist von äußerster Wichtigkeit bei nahezu jedem Aspekt der Bildsequenzverarbeitung. Eine Zwischenbildbewegungsinformation gestattet die Entwicklung von Algorithmen, die Vorteil aus den natürlich bestehenden Redundanzen zwischen den Einzelbildem (frames) einer Bildsequenz erziehen. Die dem Bewegungsabschätzungsproblem innewohnenden Schwierigkeiten und die Entwicklung von neuartigen Strategien zur Verwendung der Zwischenbild- bzw. Interframe-Bewegungsinformation im Zusammenhang mit verschiedenen Verarbeitungsaufgaben stellen Herausforderungen auf dem Gebiet der Bildsequenzverarbeitung dar.
  • Die Bildsequenzverarbeitung beschäftigt sich mit Problemen, wie beispielsweise der Zwischenbild- bzw. Interframe-Bewegungsabschätzung, der zeitlichen Einzelbildinterpolation, der Rauschfilterung, der Wiedergewinnung und der Datenkompression. Die vorliegende Erfindung beschäftigt sich insbesondere mit zweien dieser Problemen: Bewegungsabschätzung und Rauschfilterung.
  • Die Wichtigkeit, das Rauschen in den Bildsequenzen zu reduzieren, steigt mit der steigenden Anwendung von Video- und Fernsehsystemen in zahlreichen wissenschaftlichen, kommerziellen und verbraucherorientierten Anwendungen. Ein menschlicher Beobachter kann potentiell mehr Information aus einer Bildsequenz erhalten, wenn das Rauschen verringert wird. In Fällen, wo das Rauschen sichtbar nicht wahrnehmbar ist, steigert die Rauschverringerung die Effizienz bzw. den Wirkungsgrad der darauf folgenden Verarbeitung, die auf die Bildabfolge angewandt werden kann, wie beispielsweise eine Datenkompression.
  • Es gibt zwei große Zeitbereichansätze zur Bildsequenzfilterung: (1) der Bewegungskompensationansatz, und (2) der Bewegungsdetektionsansatz. Bei der bewegungskompensierten Filterung wird zuerst ein Bewegungsschätzalgorithmus auf die verrauschte Bildsequenz angewandt, um die Bewegungstrajektorien bzw. -bahnen abzuschätzen, d. h. die Stellen der Pixel bzw. Bildpunkte (oder Unterpixel), die einander in einer vorbestimmten Anzahl von aneinander gereihten bzw. folgenden Bildeinzelaufnahmen entsprechen. Dann wird der Wert eines speziellen Pixels in einem gewissen Bild bzw. Einzelbild geschätzt, und zwar unter Verwendung der Bildsequenzwerte, die auf der Bewegungsbahn sind, die das Pixel überquert. Die Schätzung wird entweder unter Verwendung einer unendlichen Impulsantwort- (IIR- = infinite impulse response) oder einer begrenzten Impulsantwort- (FIR- = finite impulse response) Filterstruktur ausgeführt.
  • Im Gegensatz dazu versuchen Verfahren basierend auf der Bewegungdetektion nicht die Zwischenbildbewegung abzuschätzen. Stattdessen werden direkt Unterschiede von Pixelwerten an identischen räumlichen Stellen von zwei benachbarten Frames bzw. Einzelbildern berechnet, um die Anwesenheit einer Zwischenbildbewegung zu detektieren. Eine Abschätzung des Pixelwertes an einer gewissen Stelle des gegenwärtigen Bildes bzw. Einzelbildes wird bestimmt durch Anwenden einer FIR- oder IIR-Filterstuktur auf Pixel an identischen räumlichen Stellen einer vorbestimmten Anzahl von vergangenen und/oder zukünftigen Bildern bestimmt. Die Filterkoeffizienten sind Funktionen des "Bewegungsdetektionssignals", welches als die Differenz definiert ist zwischen dem Pixelwert, der bei dem gegenwärtigen Einzelbild von Interesse ist, und dem Pixelwert an derselben Stelle des vorherigen Einzelbildes. Gewisse IIR-Filterstrukturen zur zeitlich Filterung auf der Basis der Bewegungsdetektion sind im Stand der Technik vorgeschlagen worden, genau so wie eine Vielzahl von anderen bewegungsdetektionsbasierten Filtermethoden.
  • Allgemein gesagt, wird die Leistung dieser beiden Ansätze bestimmt durch die Filterstruktur, die Abhängigkeit der Filterstruktur vom Bewegungsdetektionssignal (im Falle des Bewegungsdetektionsansatzes) und die Leistung des Bewegungsschätzalgorithmus (im Falle des Bewegungskompensationsansatzes). Bewegungskompensierte Filterverfahren tendieren dazu, auf Grund der Zwischenbild- bzw. Interframe-Bewegungsabschätzung komplexer zu sein. Auf der anderen Seite sind sie potentiell wirkungsvoller als jene, die auf der Bewegungsdetektion basieren, da die Zwischenbildbewegungsinformation verwenden. In der Praxis jedoch hängt der Erfolg eines bewegungskompensierten Verfahrens stark vom Erfolg der Bewegungsabschätzung ab.
  • Bei einem idealen Umfeld (Einstellung), wo die Szeneninhalte von einem Frame bzw. einer Einzelaufnahme zu einer weiteren unverändert bleiben, und wo der Bewegungsschätzalgorithmus nicht durch Rauschen verändert wird, sieht die direkte Durchschnittsbildung von Bildwerten über Bewegungsbahnen eine wirkungsvolle Rauschreduzierung vor. Tatsächlich ist unter der Annahme eines unabhängigen weißen Gaus'schen Rauschens der Mittelwert eine Maximalwahrscheinlichkeitsschätzung des Pixel- bzw. Bildpunktwertes. In der Praxis jedoch verändern sich Szeneninhalte von einem Bild zum anderen, beispielsweise auf Grund einer Kameraverschiebung bzw. eines Kameraschwenks und der Existenz von verdeckten/freigelegten Bereichen (Regionen). Daraus folgend müssen Bildwerte über einer geschätzten Bewegungstrajektorie bzw. -bahn nicht notwendigerweise der gleichen Bildstruktur entsprechen, und eine direkte Durchschnittsbildung kann ein Überglätten bzw. ein übermäßiges Glätten von Bilddetails zur Folge haben. Daher sollte der Rauschfilterungsalgorithmus zeitlich anpaßbar sein. Bei einem Extrem sollte er sich der direkten Durchschnittsbildung annähern, wenn die Bewegungseinschätzung genau ist. Beim anderen Extrem sollte er keine Filterung ausführen, wenn die Bewegungsabschätzung ungenau ist. Tatsächlich sollte das Bewegungsschätzverfahren gute Schätzungen in Anwesenheit von Rauschen vorsehen können, genau so wie im Fall von variierenden Szenen, um eine effektive Rauschreduzierung zu gestatten.
  • Die oben erwähnte Anpassungsanfordernis wird erfüllt, wenn der lokale lineare minimale Mittelquadratfehler- ("LMMSE" = local linear minimum mean square error) Punkt schätzer, der von Kuan und anderen und von Lee abgeleitet wurde, in der Zeitrichtung entlang der Bewegungsbahnen angewandt wird (siehe D. T. Kuan und andere, "Adaptive Noise Smoothing Filter for Images with Signal-Dependent Noise", (Adaptiver Rauschglättungsfilter für Bilder mit signalabhängigem Rauschen), IEEE Trans. Pattern Anal. Machine Intell., PAMI-7, Seiten 165-177, März 1985; und Lee "Digital Image Enhancement and Noise Filtering by Use of local Statistics" (Digitalbildverstärkung und Rauschfilterung durch Anwendung von lokalen Statistiken), IEEE Trans. Pattern Anal. Machine Intell., PAMI-2, Seiten 165- 168, März 1980).
  • Es wurde von Martinez und anderen ("Implicit Motion Compensated Noise Reduction of Motion Video Scenes" ("Implizite bewegungskompensierte Rauschreduzierung von bewegten Videoszenen") Proc. ICASSP, Seiten 375-378, Tampa, FL 1985) vorgeschlagen, den adaptiven LMMSE- Punktschätzer in Zeitrichtung anzuwenden. Auf Grund des Mangels an Bewegungschätzern, die in Anwesenheit von Rauschen robust bzw. widerstandsähig sind, verwendeten jedoch Martinez und andere eine Kaskade von fünf LMMSE- Schätzern über einen Satz von fünf hypothetisierten bzw. angenommenen Bewegungstrajektorien für jeden Bildpunkt, ohne eine tatsächliche Bewegung zu schätzen. Dieser Ansatz kann eher als ein Bewegungsdetektionsansatz betrachtet werden, als als ein bewegungskompensierter Ansatz, da eine Zwischenbildbewegung nicht geschätzt wird. Eine Bewegungsabschätzung entlang einer hypothetisierten bzw. angenommenen Bahn ist in der adaptiven Natur des Schätzers implizit. Auf Grund der adaptiven Natur des Schätzers ist eine Filterung nur entlang der Trajektorie wirkungsvoll, die nahe an der tatsächlichen liegt. Dieser Ansatz ist in Fällen als erfolgreich erwiesen worden, in denen die angenommenen Bewegungstrajektorien eng an den tatsächlichen liegen.
  • Die Erfindung bezieht sich auf ein Verfahren zur zeitlichen adaptiven Filterung von Frames bzw. Einzelbildern einer Bildsequenz nach Anspruch 1. Bevorzugte Ausführungsbeispiele sind in den abhängigen Ansprüchen offenbart.
  • Zusammenfassung der Erfindung
  • Es besteht eine Notwendigkeit für ein Verfahren zur Reduzierung von Rauschen in Bildsequenzen, welches den lokalen LMMSE-Punktschätzer über Bewegungstrajektorien bzw. -bahnen verwendet, die explizit unter Verwendung eines robusten Bewegungsschätzalgorithmus geschätzt wurden.
  • Dieses und andere Ziele werden durch die vorliegende Erfindung erreicht, die ein Verfahren zur zeitlichen adaptiven Filterung von Bildern bzw. Einzelaufnahmen einer Bildsequenz vorsieht. Um das k-te Einzelbild zu filtern, werden zuerst die Bewegungsbahnen unter Verwendung eines Bewegungsschätzalgorithmus bestimmt, die die Pixelstellen am k-ten Einzelbild überqueren. Die Bewegungsbahnen laufen durch eine vorbestimmte Anzahl von Einzelaufnahmen bzw. Einzelbildern, die benachbart zum k-ten Einzelbild liegen. Bildwerte in den benachbarten Bildern entlang der Bewegungsbahnen werden dann ausgewertet bzw. berechnet. Zeitliche adaptive lineare minimale Mittelquadratfehler- (LMMSE = linear minimum mean square error-) Schätzungen des Bildwertes an den Pixelstellen des k-ten Einzelbildes werden unter Verwendung von Bildwerten entlang der Bewegungsbahnen bestimmt. Diese Schritte werden für jedes der anderen Bilder der Bildsequenz wiederholt.
  • Ein spezieller Bewegungsschätzalgorithmus, der bei der vorliegenden Erfindung verwendet werden kann, ist das Thema einer anhängigen Patentanmeldung, Serien-Nr. 275 859, eingereicht am 25. Novembver 1988, die unter US-A-5 241 608 am 31.8.93, veröffentlicht wurde, und die von einem der Erfinder der vorliegenden Erfindung erfunden wurde. Dieser Bewegungsschätzalgorithmus, im folgenden der "Fogel-Algorithmus" ist sehr gut geeignet zur Filterung von verrauschten Bildsequenzen, da (i) er sehr unempfindlich auf Rauschen ist, und (ii) er gute Abschätzungen im Fall von varuerendem Szeneninhalt bietet. Seine Robustheit kommt auf Grund der Tatsache, da er eine direkte Ableitung (Differentiation) der Bildverteilung vermeidet. Er prägt die optischen Fluß- und Richtungsglättungseinschränkungen auf bzw. erfordert sie, und zwar unter adaptiver (wahlweiser) Verwendung eines neuartigen Variationsprinzips. Dieses letztere Merkmal des Fogel- Algorithmus ist verantwortlich für seine gute Leistung im Fall von Situationen mit verdecktem/freigelegtem Bereich (Region) und Kameraschwenk.
  • Das Verfahren der vorliegenden Erfindung führt eine zeitlich adaptive LMMSE-Filterung entlang von Bewegungstrajektorien aus, die unter Verwendung eines robusten Bewegungsschätzalgorithmus bestimmt werden. Das Rauschen wird als Weißes angenommen. Jedoch kann es signalunabhängig oder signalabhängig sein. Das Verfahren der vorliegenden Erfindung ist einem impliziten Bewegungsdetektionsverfahren genau so wie anderen bewegungskompensierten Verfahren unter Verwendung einer pel-rekursiven (pel = Pixelelement) Bewegungsschätzung überlegen. Auch ist das Verfahren der vorliegenden Erfindung sehr wirkungsvoll beim Unterdrücken des Filmkornrauschens, ohne die Bilddetails zu verschmieren, und zwar für Bildsequenzen, die von einem Spielfilm digitalisiert werden.
  • Andere Ziele, Vorteile und neuartige Merkmale der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung der Erfindung offensichtlich, wenn sie in Verbindung mit den Begleitzeichnungen gesehen wird.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 zeigt eine Sequenz von Bildeinzelaufnahmen (frames), um ein erstes Ausführungsbeispiel des Verfahrens der vorliegenden Erfindung zu veranschaulichen;
  • Fig. 2 zeigt eine Sequenz von Bildeinzelaufnahmen, um ein weiteres Ausführungsbeispiel des Verfahrens der vorliegenden Erfindung zu veranschaulichen;
  • Fig. 3 veranschaulicht eine Darstellung der Natur von c&sub1;(r, α) unter Verwendung eines Satzes von hypothetischen G- und φα-Werten: c&sub1; gegenüber G und φα φür {u=6,0; p=9,4 und q=O,5};
  • Fig. 4(a) zeigt einen Querschnitt der Kurve in Fig. 3 bei einem gewissen G-Wert, der verglichen wird mit Kurven, die durch individuelles Verändern des Wertes des Paramters p erhalten werden: (u=6,0; p=O,4 und q= O,5) und (u=6,0; p=O,8 und q=O,5);
  • Fig. 4(b) zeigt einen Querschnitt der Kurve in Fig. 3 bei einem gewissen G-Wert, der mit Kurven verglichen wird, die durch individuelles Variieren des Wertes des Parameters q erhalten werden: (u=6,O; p=O,4 und q=O,5) und (u=6,O; p=0,4 und q=1,0).
  • Fig. 4(c) zeigt einen Querschnitt der Kurve in Fig. 3, bei einem gewissen G-Wert, verglichen mit Kurven, die durch individuelles Verändern des Wertes des Parameters u erhalten werden: (u= 6,0, p=O,4 und q=O,5) und (u=10,0; p=O,4 und q=O,5).
  • Detaillierte Beschreibung der bevorzugten Ausführungsbeispiele
  • Die vorliegende Erfindung sieht einen Algorithmus zur zeitlichen Filterung von verrauschten bzw. rauschbehafteten Bildsequenzen vor, der die Abschätzung der Zwischenbild- bzw. Interframe-Bewegung verwendet. Dieser bewegungskompensierte zeitliche Filteransatz wendet die Zwischenbildbewegungsinformation an. Ein Bewegungsschätzalgorithmus, der zur Anwendung als der Algorithmus der vorliegenden Erfindung angepaßt worden ist, ist der Fogel- Algorithmus, obwohl andere robuste Algorithmen entwickelt werden können, die auch geeignet wären. Der Fogel- Algorithmus ist sehr gut geeignet für Rauschfilteranwendungen, und zwar auf Grund seiner robusten Natur. Die grundlegenden mathematischen Prinzipien des Fogel- Algorithmus sind beschrieben in: S. V. Fogel, "Estimation of velocity vector fields from time-varying image sequences" (Abschätzung von Geschwindigkeitsvektorfeldern aus zeitveränderlichen Bildsequenzen), CVGIP: Image Understanding, Vol 53, Nr. 3, Mai 1991. Für die Zwecke der vorliegenden Ausführung werden die grundlegenden Prinzipien des Fogel-Algorithmus dargelegt und nicht seine mathematischen Details.
  • Bei der vorliegenden Erfindung wird eine verrauschte bzw. rauschbehaftete Bildsequenz g(x,y,t) modeliert durch:
  • Gleichgung (1)
  • g(x,y,t) = f(x,y,t) + v(x,y,t)
  • wobei f(x,y,t) und v(x,y,t) die jeweiligen tatsächlichen bzw. Ist-Bild- und Rauschverteilungen bezeichnen, und zwar bei den kontinuierlichen räumlichen und zeitlichen Koordinaten (x,y,t). Ein diskretes Modell kann bezüglich der diskreten Koordinaten (m,n,k) definiert werden als g(m,n,k) = f(m,n,k) + v(m,n,k), wobei g(m,n,k), f(m,n,k), v(m,n,k) die gesampelten bzw. aufgenommenen Versionen der entsprechenden Größen in Gleichung (1) bezeichnen.
  • Es sei hier angenommen, daß das Einzelbild zur Zeit k einer gegebenen Bildsequenz gefiltert wird unter Verwendung seiner N benachbart liegenden Einzelbilder einschließlich ihm selbst gefiltert wird. Ohne die Allgemeingültigkeit zu verlieren, sei auch angenommen, daß N=2M+1 und daß die Einzelbilder zu den Zeiten k-M, ... k-1, k+1, ..., k+M verwendet werden, um das Einzelbild zur Zeit k zu filtern. (Siehe Fig. 1 für eine Veranschaulichung der Einzelbilder.)
  • Beim ersten Schritt der vorliegenden Erfindung werden Bewegungstrajektorien bzw. -bahnen, die die Pixelstellen im k-ten Einzelbild überqueren, unter Verwendung des Bewegungsschätzalgorithmus bestimmt. Eine Bewegungsbahn wird für jedes Pixel im k-ten Einzelbild definiert. Für einen Bildpunkt bzw. ein Pixel, das bei (m,n) im k-ten Einzelbild gelegen ist, wird die Bewegungsbahn τm,n,k definiert als ein Satz von Stellen, der (m,n) enthält, genau so wie die versetzten Stellen, die (m,n) in den N-1 benachbart liegenden Einzelbildern zu den Zeiten k-M, ... k-1, k+1,..., k+M entsprechen. Die Verschiebungsvektoren werden durch den Bewegungsschätzalgorithmus geschätzt. Im allgemeinen sind die Komponenten der Verschiebungsvektorschätzungen real-wertig und somit weisen die Trajektorien bzw. Bahnen auch Unterpixelstellen auf, an denen die Bildwerte über Interpolation bestimmt werden.
  • Im zweiten Schritt des Verfahrens der vorliegenden Erfindung werden Bildwerte, die bei den Bewegungsbahnen ausgerechnet bzw. berechnet wurden, verwendet, um die zeitlich adaptiven LMMSE-Schätzungen der Pixelwerte im k-ten Einzelbild zu bestimmen. Diese zweistufige Prozedur wird dann für andere Bilder bzw. Einzelaufnahmen der Sequenz wiederholt.
  • Im folgenden wird zuerst der Bewegungsschätzschritt genauer besprochen, und zwar gefolgt von einer Besprechung der zeitlich adaptiven Filterung.
  • Bewegungsschätzalgorithmen können in drei Hauptklassen eingeteilt werden: (i) Merkmal/Bereich-Übereinstimmungsverfahren, (ii) Fourier-Transformationsbereichsverfahren; und (iii) raumzeitgradienten-basierte Verfahren. Bei den Merkmal/Bereich-Übereinstimmungsverfahren wird die Bewegung abgeschätzt durch Übereinstimmungsmerkmale (beispielsweise Kanten) oder Bereiche (beispielsweise Pixelblöcke), und zwar von einem Einzelbild zum anderen. Die Verschiebungsvektoren werden nur auf Grund eines spärlichen bzw. unvollständigen Satzes von Bildpunkten abgeschätzt. Die Fourier-Transformationsverfahren nützen die Beziehung zwischen den Fourier-Transformationen von zweidimensionalen Signalen aus, die mit Bezug aufeinander verschoben sind. Die raumzeitgradienten-basierten Verfahren schätzen die Bewegung durch Verwendung der räumlichen und zeitlichen Veränderungen (Gradienten) der Bildverteilung ab, genau so wie das Verschiebungsvektorfeld. Der Fogel-Algorithmus, der bei gewissen Ausführungsbeispielen der vorliegenden Erfindung als der Bewegungsschätzalgorithmus verwendet wird, ist ein raumzeitliches Verfahren.
  • Es gibt vier Hauptideen des Fogel-Algorithmus: (1) Bildung einer mehrfachauflösenden Darstellung bzw. Darstellung mit mehreren Auflösungen der gegebenen Bildsequenz, (2) die Anwendung von optischen Fluß- und Richtungsglättungseinschränkungen auf die Verschiebungsvektorfeldschätzung, (3) Formulierung bzw. Aufstellung eines neuartigen Variationsprinzips, welches verwendet wird, um die Verschiebungsvektorfeldschätzung zu erhalten, und (4) Lösung des Variationssprinzipes. Zum Zwecke der Ausführung wird mehr auf die Konzepte des Fogel-Algorithmus Betonung gelegt, statt auf seine mathematischen Details. Weiter wird aus Gründen der Vereinfachung eine andere Bezeichnung (Schreibweise) verwendet als die, die in dem früher erwähnten technischen Bericht enthalten ist. Auch ist die folgende Ausführung auf kontinuierliche räumliche und zeitliche Variablen eingeschränkt.
  • Eine Mehrauflösungs-Darstellung bzw. Darstellung mit mehreren Auflösungen der gegebenen Bildsequenz, die von gα(x,y,t) bezeichnet wird, wird bestimmt indem sie mit einem Kern korreliert wird in der Form von Gleichung (2)
  • Das heißt, gα(x,y,t) Ωg(µ,η,t)h((µ-x)/α, (η-y)/α))dµdη. Hier bezeichnet Ω die Bildunterstützung bzw. den Bildsupport, A, B, C und D sind vorbestimmte Konstanten und α ist der Auflösungsparameter. Man kann sehen, daß die räumliche Auflösung von gα(x,y,t) sinkt, wenn α steigt. Es ist wichtig zu bemerken, daß die räumlichen partiellen Ableitungen von gα einfach berechnet werden können durch Korrelieren von g mit partiellen Ableitungen des Korrelationskerns, der unbegrenzt ableitbar ist. Eine Bewegungsabschätzung wird hierarchisch ausgeführt, und zwar beginnend von der niedrigsten Auflösung und endend bei der Originalauflösung der Bildsequenz.
  • Der Fogel-Algorithmus prägt optische Fluß- und Richtungsglättungseinschränkungen bei der Verschiebungsvektorfeldschätzung auf. Diese zwei Einschränkungen werden im Folgenden eingeführt. Die Abschätzung des Verschiebungsvektorfeldes an der Stelle r, die die Bewegung zwischen den Einzelbildern bei t und t+Δt bei einem Auflösungsniveau bzw. -grad α beschreibt, wird wie folgt bezeichnet: Gleichung (3)
  • wobei r = [x y]T Dann wird die Verschiebungseinzelbilddifferenzfunktion φα für diese beiden Bilder beim Auflösungsniveau α wie folgt definiert: Gleichung (4)
  • Die Verschiebungseinzelbilddifferenzfunktion kann verwendet werden, um die optische Flußeinschränkung einzuführen. Die Effekte bzw. Auswirkungen von Rauschen, möglichen Veränderungen der Szenenbeleuchtung usw. werden im Augenblick ignoriert, und die Punkte einer sich bewegenden Struktur werden so angesehen, daß sie den gleichen Graupegel bzw. die gleiche Graustufe in benachbarten Einzelbildern erreichen. In diesem Fall, wenn die Schätzung α gleich dem wahren Verschiebungsvektor wäre, würde die Verschiebungseinzelbilddifferenzfunktion den Wert von Null an dieser Stelle erreichen. Die optische Flußeinschränkung wird als vom Verschiebungsvektor erfüllt angenommen, wenn die Verschiebungseinzelbilddifferenzfunktion den Wert Null erreicht. Daher wird eine optische Flußeinschränkung aufgeprägt, wenn der (absolute) Wert der Verschiebungseinzelbildfunktion gesenkt wird.
  • Es ist wichtig zu bemerken, daß die optische Flußeinschränkung nicht ausreichend ist, um eindeutig den Verschiebungsvektor zu bestimmen. In anderen Worten hat die Gleichung φα (r, α) =0 im allgemeinen mehr als eine Lösung. Insbesondere führt die optische Flußeinschränkung eine Begrenzung nur bei der Komponente des Verschiebungsvektors ein, die in der Richtung des räumlichen Gradientenvektors an der Stelle r ist. Es werden jedoch keine Einschränkungen an der Komponente in der Richtung senkrecht zum Gradientenvektor aufgeprägt. Der Lösungsraum für die Verschiebungsvektorschätzung enthält daher mehr als ein Element.
  • Die Größe der Lösung für die Verschiebungsvektorschätzung kann verringert werden durch Verwendung von Multispektralcharakteristiken eines Bildes, falls verfügbar. Wenn beispielsweise die Bildsequenz in Farbe verfügbar ist, kann eine optische Flußeinschränkung in den roten, grünen und blauen Kanälen aufgeprägt bzw. eingeführt werden. Da die Richtung des räumlichen Gradientenvektors auf jedem Farbkanal im allgemeinen unterschiedlich ist, wird der Verschiebungsvektor in drei unterschiedlichen Richtungen sozusagen (effektiv) eingeschränkt. Dies kann angesehen werden als steigende Anzahl von "Bekannten", während die Anzahl der Unbekannten gleich bleibt.
  • Der Lösungsraum für die Verschiebungsvektorschätzung kann weiter reduziert werden durch Verwendung von zusätzlichen Einschränkungen, wie beispielsweise die Glättungseinschränkung, die die Erfordernisse aufprägt, daß die Verschiebungsvektoren sanft entlang gewisser räumlicher Richtungen variieren. Im Folgenden wird die Richtungsglättungsfunktion α auf dem Auflösungsniveau α zur Einführung der Richtungsglättungseinschränkung definiert.
  • Die Richtungsglättungsfunktion ist bezüglich der Richtungsableitungen des Verschiebungsvektors definiert. Die Richtungsableitungen der x- und y-Komponenten des Verschiebungsvektors in Richtung des Vektors s = [sxsy]T sind wie folgt definiert: Gleichung (5)
  • Die Richtungsglättungsfunktion wird definiert durch Gleichung (6)
  • Die Glättungseinschränkung in Richtung von s wird eingeführt, wenn der Wert dieser Funktion gering ist.
  • Es ist wichtig, zu erkennen, daß die optischen Fluß- und Glättungseinschränkungen des Verschiebungsvektorfeldes nicht notwendigerweise bei allen Bildpunkten gültig sind. Beispielsweise gilt die optische Flußeinschränkung nicht nahe bei Ausschluß- bzw. Verschlußgrenzen, wo Gebiete verdeckt oder freigelegt werden. Die Glättungseinschränkung andererseits gilt nicht nahe bei Ausschluß- bzw. Verschlußgrenzen in der Richtung senkrecht zu den Verschlußgrenzen, wo das Verschiebungsfeld sich plötzlich verändert.
  • Frühere raumzeitliche Verfahren des Standes der Technik verwendeten die optischen Fluß- und Glättungseinschränkungen global auf dem gesamten Bild, was Algorithmen zur Folge hatte, die im allgemeinen nicht zufriedenstellende Verschiebungsschätzungen vorsahen. Spätere Verfahren prägen selektiv die Glättungseinschränkung auf. Diese Verfahren erfordern das Detektieren von Objektgrenzen. Die Glättungseinschränkung wurde dann nur entlang der Grenzen, jedoch nicht senkrecht zu den Grenzen aufgeprägt (ohne Unterscheidung zwischen Verschluß- bzw. Ausschluß- und Nicht-Verschlußgrenzen; die Glättungseinschränkung gilt in der Richtung senkrecht zu einer Nicht-Verschlußgrenze). Der Fogel-Algorithmus besitzt die neuheitliche Fähigkeit, sowohl die optischen Fluß- als auch die Richtungsglättungseinschränkungen adaptiv in geeigneter Weise aufzuprägen (Differenzierung zwischen Verschluß- und Nicht-Verschlußgrenzen), und zwar innerhalb des Rahmens eines neuen Variationsprinzipes, wie unten erklärt.
  • Um in geeigneter Weise die optischen Fluß- und Richtungsglättungseinschränkungen aufzuprägen, sollte man eine gewichtete Summe (oder ein Integral) der verschobenen Bilddifferenz- und Richtungsglättungsfunktionen minimieren, die oben definiert wurden, wobei die Gewichtungen mit Bezug auf die Gültigkeit jeder Einschränkung eingestellt bzw. angepaßt werden. Die Gewichtung der Verschiebungseinzelbilddifferenzfunktion sollte an Punkten verringert werden, wo eine optische Flußeinschränkung verletzt wird. In ähnlicher Weise sollte die Gewichtung bzw. das Gewicht der Richtungsglättungsfunktion in Richtungen verringert werden, wo die Glättungseinschränkung verletzt wird. Idealerweise sollten diese Gewichte (Gewichtungen) Funktionen des Verschiebungsvektorfeldes sein, da das Verschiebungsvektorfeld der beste Indikator für die Gültigkeit dieser Einschränkungen ist. Beispielsweise signalisiert eine plötzliche Veränderung des räumlichen Gradienten des Verschiebungsvektors, die Anwesenheit einer Ausschluß- bzw. Verschlußgrenze. (Dies wird genauer unten erklärt, wenn die expliziten Formen dieser Gewichtungen besprochen werden.) Wenn man dies im Kopf behält, sollte die Verschiebungsfeldschätzung das folgende Variationsprinzip erfüllen: Die Schätzung α beim Auflösungsniveau α sollte derart sein, daß die Funktion Gleichung (7)
  • mit Bezug auf δ α minimiert wird, wenn δ α = 0. Der erste Term bzw. Ausdruck auf der rechten Seite der Gleichung (7) ist eine gewichtete Integration des Quadrates der Verschiebungseinzelbilddifferenzfunktion über das gesamte Bild. Im zweiten Ausdruck bezeichnet die Bezeichnung s(.) ds die Integration über einen vorbestimmten Satz s von Richtungen (im bevorzugten Ausführungsbeispiel des Algorithmuses werden acht Richtungen in Betracht gezogen); das gewichtete Integral der Glättungsfunktion wird dann über das gesamte Bild integriert.
  • Die Gewichtungen, die von der Verschiebungsvektorschätzung abhängen, sind wie folgt gegeben: Gleichung (8)
  • wobei
  • die räumlichen Gradienten des Verschiebungsvektors bezeichnen, und wobei folgendes gilt: Gleichung (9)
  • wobei s der Richtungsableitungsoperator ist, der in Gleichung (5) definiert wird. Die Parameter p, q, u, v, w, z werden heuristisch bestimmt, und zwar unter Verwendung einer Anzahl von Bildsequenzen. Ihre Werte sind im allgemeinen robust und müssen nicht von einer Bildsequenz zur anderen eingestellt bzw.verändert werden.
  • Das Folgende ist eine Beschreibung der adaptiven Gewichtung der optischen Fluß- und Richtungsglättungseinschränkungen. Die Gewichtsfunktion c&sub1; (r, α), die mit der Verschiebungseinzelbilddifferenzfunktion assoziiert ist, wird zuerst in Betracht gezogen. An irgendeiner Stelle r sollte der Wert der Gewichtsfunktion monoton mit steigenden Werten der Verschiebungseinzelbilddifferenzfunktion abnehmen, wodurch daher der Effekt der optischen Flußeinschränkung (an der Stelle r) auf die Lösung der Gleichung (7) geschwächt wird. Dies erklärt die Anwesenheit des Ausdruckes p²(φα(r, α))² im Nenner der in Gleichung (8) gegebenen Gewichtsfunktion. Das Einschließen des Ausdrucks
  • in den Nenner der Gleichung (8) ist primär durch die Tatsache motiviert, daß die Schwächung der optischen Flußeinschränkung am signifikantesten nahe der Verschlußgrenzen sein sollte. Nahe den Verschlußgrenzen erreichen sowohl der Gradiententerm
  • als auch die Verschiebungseinzelbilddifferenzfunktion φα(r, α) hohe Werte auf Grund der plötzlichen Veränderung des Verschiebungsvektorfeldes bzw. auf Grund der verdeckten/freiliegenden Bildstrukturen. Daher verringert der zusammenwirkende Effekt des Produktes dieser zwei Größen signifikant das Gewicht bzw. die Gewichtung, was eine signifikante Schwächung der optischen Flußeinschränkung zur Folge hat. Als eine Konsequenz ist die Schwächung der optischen Flußeinschränkung auf Grund des Verschlusses strenger bzw. schwerer als auf Grund von Zwischeneinzelbilddifferenzen, die durch Rauschen und/oder isolierte Objekte bzw. Artefakte (beispielsweise Kratzer auf dem Film, von dem die Bildsequenz digitalisiert wird), erzeugt werden.
  • Der Zweck der Parameter p und q ist es, die relativen Effekte der Ausdrücke G(r, α), (φα(r, α))² und (φα(r, α))² auf den Wert der Gewichtsfunktion einzustellen. Der Parameter u bestimmt den Wert der Gewichtsfunktion, wenn die anderen zwei Ausdrücke im Nenner geringe Werte erreichen, insbesondere wenn die optische Flußeinschränkung starkt aufgeprägt wird.
  • Mehr Einsicht in die Gewichtsfunktion kann erreicht werden durch Aufzeichnen ihrer Werte gegenüber der Verschiebungseinzelbilddifferenzfunktion und des Verschiebungsfeldgradienten. Fig. 3 zeigt Kurven bzw. Graphiken, die durch die Anwendung einer Anordnung (Array) von hypothetischen G(r, α) - und φα(r, α)-Werten erzeugt werden, und zwar unter Verwendung von {u=6,O; p=O,4 und q=O,5}. Man kann in Fig. 3 beobachten, daß der Wert von c&sub1;(r, α) mit steigenden φα-Werten fällt, und daß die Abfallrate mit steigenden G(r, α)-Werten steigt. Das Gewicht bzw. die Gewichtung erreicht sehr kleine Werte, wenn beide dieser Größen große Werte erreichen. Ein Querschnitt der Graphik in Fig. 3 bei einem gewissen G(r, α)-Wert (G(r, α)=10) wird in Fig. 4 mit Kurven verglichen, die erhalten werden durch individuelles Variieren der Werte der Parameter p, q und u von denen, die in Fig. 3 verwendet werden. Die Kurven für (u=6,0; p=O,4 und q=O,5) und (u=6,0; p=O,8 und q=O,5) werden in Fig. 4(a) verglichen. Die Fig. 4(b) und 4(c) vergleichen diese Kurven jeweils für (u=6,O; p=O,4 und q=O,5) und (u=6,0; p=O,4 und q=1,O) und (u=O,6; p=O,4 und q=O,5) und (u=10,0; p=O,4 und q=O,5).
  • Die Abfallrate der Gewichts- bzw. Gewichtungsfunktion steigt mit steigenden Werten von p und/oder q. Größere Werte von u haben im allgemeinen kleinere Werte der Gewichtsfunktion zur Folge (siehe Fig. 4 (c)) . Es kann gezeigt werden, daß der Wendepunkt der Gewichtsfunktion auftritt bei
  • und zwar für einen festen Wert von G(r, α). Die Gewichtsfunktion c&sub2;(r, α), die mit der Richtungsglättungseinschränkung assoziiert ist, ist in der Form identisch mit der Gewichtsfunktion c&sub1;(r, α). Die Rollen, die von sgα(r) und in c&sub2;(r, α,s) übernommen werden, sind ähnlich jenen, die von G(r, α) bzw. (φα(r, α))² in c&sub1;(r, α) übernommen bzw. gespielt werden.
  • Wenn der Wert der Richtungsglättungsfunktion α(r, α,s) an der Stelle r steigt, sinkt der Wert der Gewichtungsfunktion, wodurch somit die Glättungseinschränkung an der Stelle in der Richtung von s geschwächt wird. Nahe den Verschlußgrenzen können sowohl α(r, α,s) als auch sgα(r) hohe Werte erreichen, wenn s parallel zum räumlichen Gradientenvektor ist. In diesem Fall sinkt auf Grund des Produktausdruckes
  • im Nenner von (9) der Wert des Gewichtes beträchtlich, wodurch somit der Effekt der Richtungsglättungseinschränkung auf die Lösung der Gleichung (7) geschwächt wird. Der Effekt der Parameter v, w und z auf den Wert von c&sub2; ist identisch mit den Effekten der Parameter u, p und q auf den Wert von c&sub1;. Man kann sich daher auf die Fig. 2 und 3 beziehen, um Einsicht in die Effekte dieser Paramter auf die Gewichtsfunktion zu gewinnen, die mit der Richtungsglättungseinschränkung assoziiert ist.
  • Das Folgende ist eine Ausführung einer Multispektralerstreckung. Der Vorteil der Verwendung von unterschiedlichen Spektralkanälen einer gegebenen Bildsequenz bei der Zwischeneinzelbildbewegungsschätzung wurde oben dargelegt. Es sei angenommen, daß die Rot-(r), Grün-(g) und Blau(b)-Datensätze (Aufzeichnungen) der Bildsequenzdaten verfügbar sind. Indem man alle drei Kanäle in Betracht zieht, wird die Kostenfunktion in Gleichung (7) zu folgendem: Gleichung (10)
  • wobei die Gewichtsfunktionen gegeben werden durch: Gleichung (11)
  • und durch Gleichung (12)
  • Die Lösung des Variationsprinzips kann über eine Differentiation/Integration bzw. Berechnung von Variationen erhalten werden, was in diesem Fall die notwendige Bedingung liefert, die die Lösung erfüllen sollte:
  • Diese Bedingungen lassen eine nicht-lineare Gleichung entstehen, die dann bei jedem Lösungsniveau unter Verwendung eines Quasi-Newton-Verfahrens gelöst wird. Die bei einem Auflösungsniveau erhaltene Schätzung wird als die Anfangsschätzung für das näahsthöhere Auflösungsniveau verwendet.
  • Die zeitlich adaptive LMMSE-Filterung, die von der vorliegenden Erfindung ausgeführt wird, wird nun beschrieben. Die bei der vorliegenden Erfindung verwendete Filterstuktur zur Ausführung der zeitlich Filterung wurde ursprünglich von Kuan und anderen und Lee abgeleitet (wie früher besprochen), und zwar im räumlichen Bereich zur Entfernung von Rauschen aus Standbildern. Kuan und andere und Lee verwendeten unterschiedliche Annahmesätze in ihren Ableitungen. Die Annahmen, die von Kuan und anderen verwendet wurden, werden nun in Betracht gezogen, da sie für die vorliegenden Anwendungen geeigneter sind als die von Lee. Beispielsweise gestattet anders als die von Lee gegebene die von Kuan und anderen vorgesehene Ableitung ein signalabhängiges Rauschen. Dies ist wichtig im Falle der Verarbeitung von Sequenzen, die aus einem Spielfilm (motion picture) digitalisiert wurden, wobei das Rauschen auf Grund der Anwesenheit von Filmkörnung bzw. Filmkörnern signalabhängig ist.
  • Kuan und andere sprechen das Problem des Auffindens einer LMMSE-Schätzung des Originalsignals aus ihren verrauschten bzw. verrauschten Beobachtungen g(m,n)=f(m,n)+v(m,n) an, wobei das Rauschen signalabhängig oder signalunabhängig sein kann. Das signalabhängige Rauschen kann im allgemeinen wie folgt modeliert werden v(m,n)=γ(m,n)fα(m,n), wobei γ(m,n) im weiten Sinne stationär ist, und zwar mit einem Null-Mittelwert und einer Einheitsvarianz und unabhängig vom Bildsignal. Der Paramter α ist eine Realzahl; das Filmkörnungsrauschen kann modeliert werden mit α = 1/3. Es wird angenommen, daß (i) das Bild einen nicht stationären Mittelwert besitzt, der mit µf(m,n) bezeichnet wird, und das residuelle (m,n) f(m,n)-µf(m,n) ein weißer Prozeß mit einer nicht-stationären Varianz f(m.n) ist (auf dies wird Bezug genommen als das "Nicht-stationärer-Mittelwert-Nicht-stationäre-Varianz-Bildmodell" ("nonstationary mean nonstationary variance image model")); und (ii) daß das Rauschen ein Null-Mittelwertweißer Prozeß ist. Bei Kuan und anderen wird das Nichtstationärer-Mittelwert-Nicht-stationäre-Varianz-Modell experimentell im Falle von im echten Leben auftretenden Bildern unter Verwendung von lokalen Statistiken verifiziert. Es wird beobachtet, da das Residualsignal wie weißes Rauschen erscheint, inbesondere in den gleichförmigebn Bildgebieten bzw. -regionen.
  • Die LMMSE-Schätzung f(m,n) besitzt die folgende Form: Gleichung (13)
  • wobei v²(m,n) die Rauschvarianz bezeichnet. Wenn die Gesamtstatistiken durch lokale Statistiken ersetzt werden, (auf der Basis einer lokalen Ergodizitätsannahme), die aus dem beobachteten Bild berechnet wurde, ergibt sich die folgende lokale LMMSE-Schatzung: Gleichung (14)
  • (Die Bezeichnung " ^ " bezeichnet die lokalen Statistiken.) Wenn wir die Proben- bzw. Abtastwertvarianz und das Proben- bzw. Abtastwertmittel von g(m,n) berechnet über eine lokale Region mit (m,n) als Mitte mit g²(m,n) bzw. g(m,n) bezeichnen, dann gilt
  • und µf(m,n) = g(m,n), wobei v²(m,n) die Sample- bzw. Abtastwert- oder Abtastvarianz des Rauschprozesses bezeichnet. Es sei bemerkt, daß auf Grund der Berechnung der Abtastvarianzen innewohnenden Nicht-Linearität die lokale LMMSE-Schätzung eine nicht-lineare Schätzung wird.
  • Beim Verfahren der vorliegenden Erfindung wird die räumlich lokale LMMSE-Filterstruktur der Gleichung (14) im zeitlichen Bereich bzw. Zeitbereich entlang der Bewegungstrajektorien bzw. -bahnen verwendet. Beim Ersetzen der räumlich lokalen Statistiken durch ihre zeitlichen Gegenstücke wird die zeitlich lokale LMMSE-Schätzung des Bildwertes an der Stelle (m,n) des Einzelbildes (frame) zur Zeit k gegeben durch: Gleichung (15)
  • wobei
  • gilt. Die Größen g²(m,n;k) und f(m,n;k)= g(m,n;k) bezeichnen die Abtastvarianz bzw. den Mittelwert der degradierten Bildsequenz, und zwar berechnet über die Bewegungsbahn τ m,n,k. Es sei bemerkt, daß die "weiße residuelle Annahme" entlang der Bewegungsbahnen geeignet bzw. zulässig ist, auf denen die Signalstatistiken den Signalstatistiken über ein gleichförmiges räumliches Gebiet ähneln, insbesondere an Punkten bzw. Stellen, wo eine gute Schätzung des Verschiebungsfeldes erhalten wird.
  • Man sollte beachten, daß der LMMSE-Schätzer der vorliegenden Erfindung, der in Gleichung (15) definiert wird, die früher dargelegte Adaptivitätsanforderung erfüllt. Wenn die Verschiebungsschätzungen, die verwendet werden, um die Bewegungsbahn zu bestimmen, genau sind, dann sinkt die zeitliche Signalvarianz und die Schätzung nähert sich einer direkten Durchschnittsbildung an. Wenn die Genauigkeit der Verschiebungsschätzung sinkt, weicht der Schätzer von der direkten Mittelwertbildung ab und als Extrem nähert sich die Schätzung dem Rauschwert, wenn die zeitliche Signalvarianz viel größer ist als die Rauschvarianz.
  • In der Praxis kann die Rauschvarianz a priori nicht bekannt sein. In diesem Fall kann eine Schätzung der Rauschvarianz aus der Abtastvarianz der Pixelwerte bei einem gleichförmigen Gebiet des k-ten Einzelbildes erhalten werden. Dies unter der Annahme, daß das Rauschen lokal ergodisch ist, und zwar sowohl im Raum als auch in der Zeit, und identische Statistiken zweiter Ordnung besitzt.
  • Zwei unterschiedliche Ausführungsbeispiele des Verfahrens der vorliegenden Erfindung werden durch die Fig. 1 und 2 veranschaulicht, wobei N=5 und die Einzelbilder bei k= -2, -1, O, 1, 2 verwendet werden, um das Einzelbild bei k = 0 zu filtern, und zwar bezeichnet durch f(m,n,0). Im Ausführungsbeispiel des Verfahrens, welches in Fig. 1 abgebildet ist, werden die Verschiebungsvektoren des Einzelbildes f(m,n,0) auf die anderen geschätzt. Das Pixel an der Stelle a in f(m,n,0) wird auf (mögliche) Unterpixelstellen c, b, d, e verschoben, und zwar in f(m,n,-2) bzw. f(m,n,-1) bzw. f(m,n,1) bzw. f(m,n,2). Für das bei a gelegene Pixel wird die Trajektorie bzw. Bahn τa = {a,b,c,d} bei der LMMSE-Filterung verwendet. Klar gesagt, wenn N groß ist und es eine beträchtliche Interframebzw. Zwischenbildbewegung (und daher einen Ausschluß bzw. Verschluß oder Okklusion (occlusion)), wird die Präzision der Bewegungsschätzung wahrscheinlich in diesem Ausführungsbeispiel des Verfahrens sinken. Im idealen Fall einer perfekten Verschiebungsabschätzung und in Anwesenheit eines signalunabhängigen Rauschens verringert dieses Verfahren die Rauschvarianz um einen Faktor N.
  • Ein weiteres Ausführungsbeispiel der vorliegenden Erfindung, welches in Fig. 2 abgebildet ist, ist präziser im Hinblick auf die Schätzung der Bewegungsbahnen. In diesem Fall werden die Verschiebungsvektoren von einem Einzelbild auf seine zwei benachbarten Einzelbilder geschätzt. Die Filterung wird in M = (N-1)/2 = 2 Schritten durchgeführt. Im ersten Schritt werden die Einzelbilder (frames) [f(m,n,-2), f(m,n,-1), f(m,n,0)]; [f(m,n,m-1), f(m,n,0), f(m,n,1)]; und [f(m,n,0), f(m,n,1), f(m,n,2)] gefiltert, und zwar unter Verwendung der Trajektorien bzw. Bahnen τb = {c,b,a"}, τa = {b',a,c'} und τc = {a',c,d}, um die drei Zwischenbilder zu erzeugen. Im letzten Schritt werden diese drei Einzelbilder gefiltert, und zwar unter Verwendung der Bahn τa = {b',a,c'} um die Abschätzung f(m,n,0) zu bestimmen.
  • Im zweiten beschriebenen Ausführungsbeispiel wird die Filterung eines gewissen Einzelbildes unter Verwendung von N = 2M+1 Einzelbildern in M Schritten ausgeführt, und die LMMSE-Schätzung wird auf Gruppen von drei Einzelbildem angewandt. Das Verfahren kann effizient für die anderen Einzelbilder der Sequenz ausgeführt werden. Beispielsweise muß bei der Filterung f(m,n,1) nur eine LMMSE-Schätzung im ersten Schritt ausgeführt werden, da die anderen zwei Zwischenbilder, die im zweiten Schritt erforderlich sind, schon während der Filterung des vorherigen Einzelbildes f(m,n,0) gebildet worden sind.
  • Es kann verifiziert werden, daß im idealen Fall einer perfekten Verschiebungsabschätzung, wo b = b', a = a' = a" und c = c' und in Anwesenheit von signalunabhängigem Rauschen das zweite Ausführungsbeispiel der vorliegenden Erfindung die Rauschvarianz um einen Faktor von F = 3(M+1)³/2M(M+2)+3 verringert (beispielsweise F = 81/19 = 4,3 für N = 5). Schließlich sei bemerkt, daß diese beiden Implementationen für N = 3 identisch sind.
  • Modifikationen des Verfahrens der vorliegenden Erfindung sind möglich ohne eine Abweichung vom Geiste und Umfang der Erfindung. Andere Verfahren als die oben besprochene LMMSE-Filterung, wie beispielsweise eine Medianfilterung können entlang der Bewegungstrajektorien bzw. -bahnen verwendet werden, um eine zeitliche Rauschfilterung auszuführen. Tatsächlich können fast alle bekannten "kantenbewahrenden" räumlichen Filtertechniken vom Fachmann auf bewegungskompensierte zeitliche Filterung erweitert werden. (Die Beschreibungen der kantenbewahrenden räumlichen Filtertechniken werden hier nicht im Detail besprochen, da sie wohlbekannt sind.) Die Kantenbewahrungseigenschaft eines räumlichen Filters ermöglicht es dem entsprechenden bewegungskompensierten zeitlichen Filter, die früher erwähnte Adaptivitätsanforderung zu erfüllen, d. h. daß eine geringere Glättung zusammen mit den Bewegungsbahnen ausgeführt werden sollte, wenn die Verschiebungsvektorschätzung ungenau ist, um zu verhindern, daß Schmier- bzw. Verwischungsobjekte bzw. -artefakte auftreten.
  • Die LMMSE-Filterstruktur der vorliegenden Erfindung, die in Gleichung (15) gegeben wird, kann modifiziert werden, um die Rauschreduzierung in Fällen zu verbessern, wo der Szeneninhalt sich abrupt von einem Einzelbild zum anderen ändert. Es sei beispielsweise die in Fig. 2 dargestellte Implementierung bzw. Ausführung betrachtet. Im ersten Schritt wird die Filterstruktur auf die Einzelbilder f(m,n,-2), f(m,n,-1) und f(m,n,O) angewandt, um ein Zwischenbild zu erzeugen. Es sei angenommen, daß die Einzelbilder f(m,n,-2), f(m,n,-1) eine Innenraumszene enthalten, daß jedoch die folgenden Einzelbilder eine Freilandszene enthalten, die im wesentlichen anders als die Innenraumszene ist. In diesem Fall wird erwartet, daß die Verschiebungsfeldschätzung von f(m,n,-1) auf f(m,n,-2) genauer ist als die Schätzung von f(m,n,-1) auf f(m,n,O). Daher kann es vorteilhaft sein, den Abtastmittelwert µf in Gleichung (15) durch einen gewichteten Proben- bzw. Abtastmittelwert zu ersetzen, welcher mehr Betonung auf die Bildwerte an den Stellen der Bilder zu den Zeiten k = -2 und k = -1 legt, deren Verschiebungschätzungen genauer sind, und weniger Wert legt auf den entsprechenden Bildwert des Einzelbildes zur Zeit k = O. Allgemein gesagt, sollte der gewichtete Abtastmittelwert die Genauigkeit der Zwischenbildbewegungsabschätzung berücksichtigen, und zwar durch Zuordnen von größeren Gewichten zu Bildwerten, deren Verschiebungsabschätzungen genauer sind. (Es sei bemerkt, daß die Filterstruktur, die durch das Ersetzen von µf durch einen gewichteten Mittelwert erhalten wird, nicht tatsächlich optimal ist im Sinne des minimalen mittleren Quadratfehlers.)
  • Ein "bewegungsadaptiver" gewichteter Abtastmittelwert kann mathematisch wie folgt definiert werden: Es sei zur Vereinfachung angenommen, daß N = 1, d. h. die Einzelbilder zu den Zeitpunkten k-1, k und k+1 werden verwendet, um das Einzelbild zur Zeit k zu filtern. Dann ist der gewichtete Abtastmittelwert entlang der Bewegungsbahn τm,n,k , die durch die Pixelstelle (m,n) im k-ten Einzelbild hindurchläuft, bezeichnet durch µfa(m,n;k) die Minimierung der folgenden Funktion ist Gleichung (16)
  • und zwar bei X = fa(m,n;k). Die Größen a (a > O) und ε sind feste Parameter; wir werden später beschreiben, wie sie den gewichteten Mittelwert beeinflussen. Eine Differenzierung von I(X) mit Bezug auf X und das Gleichsetzen des Ergebnisses mit Null ergibt folgendes: Gleichung (17)
  • wobei die Gewichtsfunktion gegeben wird durch: Gleichung (18)
  • und die Konstante K wird wie folgt definiert Gleichung (19)
  • Der Größe β (i,j,l) bezeichnet den nennerausdruck in Gleichung (16), d.h. β(i,j,l) 1+a²/max[ε², g(m,n,k)- g(i,j,l))²]).
  • Der daraus resultierende gewichtete Mittelwert wird nun analysiert, wobei verschiedene Anmerkungen angebracht sind. Das Gewicht, das mit dem Wert g(m,n,k) des zentralen bzw. mittleren Einzelbildes assoziiert ist, ist fest: w(m,n,k) = K/(1+a²ε²). Daher ist der Beitrag des mittleren Wertes g(m,n,k) zum gewichteten Mittel immer der gleiche. Wenn die Differenz zwischen den entsprechenden Werten g(m,n,k) und g(i,j,k-1) (oder g(m,n,k) und g(i,j,k+1)) groß ist (größer als ε²), dann ist der Beitrag von g(i,j,k-1) (oder g(i,j,k+1)) zum gewichteten Mittel klein. Der Parameter a bestimmt die Empfindlichkeit des Gewichtswertes auf die Differenzausdrücke (g(m,n,k) - g(i,j,k-1))² und (g(m,n,k) - g(i,j,k+1))². Wenn die Differenzen zwischen den entsprechenden Werten nur auf Grund des Rauschens bestehen, ist es wünschenwert, daß die gewichtete Mittelwertbildung sich auf eine direkte Mittelwertbildung verringert bzw. vereinfacht. Es ist daher plausibel, ε² der geschätzten Rauschvarianz gleichzusetzen. In dem Fall, wo (g(m,n,k)- g(i,j,k-1))² und (g(m,n,k) - g(i,j,k+1))² beide geringer als ε² sind, erreichen die Gewichte den Wert K/(1+a²ε²) und fa(m,n,k) vereinfacht sich auf die direkte Mittelwertbildung, d.h. fa(m,n;k) = f(m,n;k).
  • In einem Ausführungsbeispiel der vorliegenden Erfindung wird der bewegungsadaptive Mittelwert verwendet als der gefilterte Pixelwert bei der Filterung der Bildsequenzen. In anderen Worten ist der Filter definiert als (m,n,k) = fa(m,n,k).
  • Die verschiedenen Ausführungsbeispiele des Verfahrens der vorliegenden Erfindung, wie oben beschrieben, können unter Verwendung von herkömmlicher physikalischer Bildverarbeitungsausrüstung implementiert bzw. eingerichtet werden, wie beispielsweise einer Kamera, einer Bilddigitalisiervorrichtung, eines Computers und einer Anzeige, die als solche im Detail nicht gezeigt sind, um die vorliegende Erfindung nicht in den Hintergrund treten zu lassen.

Claims (15)

1. Verfahren zum zeitlichen adaptiven Filtern von Einzelbildern (frames) einer Bildsequenz, in der jedes Bild der Sequenz Pixelstellen aufweist, wobei die folgenden Schritte vorgesehen sind:
(a) Bestimmung von Bewegungsbahnen, die die Pixelstellen am k-ten Einzelbild (frame) traversieren bzw. überqueren unter Verwendung eines Bewegungsschätzlgorithmus, wobei für ein bei (m,n) im k-ten Einzelbild angeordnetes Pixel, die Bewegungsbahn τm,n,k als ein Satz von Stellen definiert ist, der die Stelle (m,n) eines Pixels in dem k-ten Einzelbild und auch versetzte Stellen entsprechend zu (m,n) in N-1 Nachbareinzelbildern enthält, und zwar zu Zeiten k-M, ... k-1, k+1, ... k+M, wobei N gleich 2M+1 ist; und
(b) Bestimmung der Bildwerte an den Bewegungsbahnen;
(c) Bestimmung der Abschätzungen der Bildwerte der Pixelstellen am k-ten Einzelbild; und
(d) Wiederholung der Schritte a, b und c für jedes der anderen Einzelbilder (frames) der Bildsequenz; dadurch gekennzeichnet, daß die Abschätzungen zeitlich adaptive lineare minimale mittlere Quadratfehler (LMMSE) Abschätzungen sind.
2. Verfahren nach Anspruch 1, wobei ferner folgender Schritt vorgesehen ist:
(e) Abschätzen der Versetzungsvektoren mit dem Bewegungsschätzalgorithmus.
3. Verfahren nach Anspruch 2, wobei die Komponenten der Versetzungsvektorschätzungen real-wertig sind, derart, daß die Bahnen Subpixelstellen aufweisen und wobei ferner folgendes vorgesehen ist:
(f) Bestimmung der Bildwerte an den Subpixelstellen durch Interpolation.
4. Verfahren nach Anspruch 1, wobei der Bewegungsschätzalgorithmus ein raum-zeitliches Gradientenverfahren ist.
5. Verfahren nach Anspruch 1, wobei der Schritt (a) folgende Schritte aufweist:
(a) (1) Bildung einer Mehrfachauflösungsdarstellung bzw. einer Darstellung mit mehreren Auflösungen der Repräsentation der Bildsequenz;
(a) (2) Einschränken einer Versetzungsvektorfeldschätzung unter Verwendung von optischen Fluß- und Richtungsglättungseinschränkungen;
(a) (3) Erhalt einer Versetzungsvektorfeldschätzung unter Verwendung eines Variationsprinzips; und
(a) (4) Lösung des Variationsprinzips.
6. Verfahren nach Anspruch 1, wobei die zeitliche lokale LMMSE-Abschätzung des Bildwertes an der Pixelstelle (m,n) des k-ten Einzelbildes bestimmt wird gemäß der folgenden Gleichung:
wobei gilt
und wobei g²(m,n;k) die Abtastvarianz ist, und
wobei g²(m,n;k) der Abtastmittelwert eioner degradierten Bildsequenz ist, und zwar berechnet über die Bewegungsbahn τm,n,k, wobei v²(m,n) die Abtastvarianz eines Rauschverfahrens bezeichnet, und wobei g(m,n,k) eine als Probe bzw. Abtastwert genommene oder abgetastete Version einer verrauschten bzw. rauschbehafteten Bildsequenz g(x,y,t) bezeichnet.
7. Verfahren nach Anspruch 1, wobei der Schritt (a) die Abschätzung der Bewegungsbahnen umfaßt, und zwar vom k- ten Einzelbild (frame) in eine vorbestimmte Anzahl von aneinandergereihten Einzelbildern (frames) in der Bildsequenz.
8. Verfahren nach Anspruch 7, wobei die vorbestimmte Anzahl aneinandergereihter Einzelbilder (frames) verwendet wird, um das k-te Einzelbild zu filtern.
9. Verfahren nach Anspruch 1, wobei der Schritt (a) die Abschätzung der Bewegungsbahnen umfaßt, und zwar aus dem k-ten Einzelbild zu einem k-1-Einzelbild und einem k+1- Einzelbild.
10. Verfahren nach Anspruch 9, wobei die k-1-, k- und k+1-Einzelbilder (frames) gefiltert werden, um drei Zwischenbilder zu erzeugen, wobei diese Zwischenbilder sodann gefiltert werden, um eine Abschätzung (m,n,k) des Bildwertes in Schritt (c) zu bestimmten.
11. Verfahren nach Anspruch 1, wobei das k-te Einzelbild unter Verwendung von N = 2M+1 Einzelbildern gefiltert wird und wobei das Filtern in M Schritten ausgeführt wird und wobei die LMMSE-Abschätzung des Schrittes (c) auf Gruppen von drei Einzelbildern angewandt wird, wobei N eine vorbestimmte Anzahl von Einzelbildern ist.
12. Verfahren nach Anspruch 1, wobei die zeitlich lokale LMMSE-Abschätzung des Bildwertes an der Pixelstelle (m,n) des k-ten Einzelbildes gemäß der folgenden Gleichung bestimmt wird:
wobei gilt
und wobei
die Abtastvarianz ist, und wobei
ein bewegungsadaptiver Abtastmittelwert ist, wobei die Gewichtungsfunktion gegeben ist durch:
wobei ε und a(a> o) feste Parameter sind, und wobei die Konstante K wie folgt definiert ist:
wobei die Größe β gegeben ist durch:
13. Verfahren nach Anspruch 1, wobei die zeitlich lokale LMMSE-Abschätzung des Bildwertes an der Pixelstelle (m,n) des k-ten Einzelbildes bestimmt wird gemäß der Gleichung (m,n,k) = fa(m,n,k) wobei fa(m,n,k) ein bewegungsadaptiver Abtastmittelwert ist und wobei (m,n,k) ein gefilterter Pixelwert ist.
14. Verfahren nach Anspruch 1, wobei der Schritt (c) die Medianwertfilterung umfaßt, und zwar längs der Bewegungsbahnen, um die zeitliche Rauschfilterung auszuführen.
15. Verfahren nach Anspruch 1, wobei der Schritt (c) eine kantenbewahrende räumliche Filterung aufweist.
DE69218656T 1991-05-09 1992-04-30 Verfahren zur zeitlichen adaptiven Filterung von verrauschten Bildsequenzen Expired - Fee Related DE69218656T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/697,868 US5600731A (en) 1991-05-09 1991-05-09 Method for temporally adaptive filtering of frames of a noisy image sequence using motion estimation

Publications (2)

Publication Number Publication Date
DE69218656D1 DE69218656D1 (de) 1997-05-07
DE69218656T2 true DE69218656T2 (de) 1997-11-06

Family

ID=24802924

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69218656T Expired - Fee Related DE69218656T2 (de) 1991-05-09 1992-04-30 Verfahren zur zeitlichen adaptiven Filterung von verrauschten Bildsequenzen

Country Status (4)

Country Link
US (1) US5600731A (de)
EP (1) EP0512422B1 (de)
JP (1) JPH05135170A (de)
DE (1) DE69218656T2 (de)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5419328A (en) * 1993-08-09 1995-05-30 Hewlett-Packard Company Mean squared speed and myocardial performance
US5473384A (en) * 1993-12-16 1995-12-05 At&T Corp. Method of and system for enhancing distorted graphical information
US5734742A (en) * 1994-09-19 1998-03-31 Nissan Motor Co., Ltd. Inspection system and process
GB2297450B (en) * 1995-01-18 1999-03-10 Sony Uk Ltd Video processing method and apparatus
FR2736182A1 (fr) * 1995-06-30 1997-01-03 Philips Electronique Lab Procede de traitement d'images pour la reduction du bruit dans une image d'une sequence d'images numeriques et dispositif mettant en oeuvre ce procede
DE19548452C1 (de) * 1995-12-22 1997-02-20 Siemens Ag Verfahren zur rechnergestützten Bewegungsschätzung für Bildpunkte zeitlich aufeinander folgender Bilder einer Videosequenz
FR2749957B1 (fr) * 1996-06-18 1998-07-24 Commissariat Energie Atomique Procede de production d'une sequence restauree d'images d'un objet en mouvement a partir de mesures bruitees
FR2751825A1 (fr) * 1996-07-24 1998-01-30 Philips Electronics Nv Procede de filtrage temporel du bruit dans une image d'une sequence d'images numerisees et dispositif mettant en oeuvre ce procede
US5973755A (en) * 1997-04-04 1999-10-26 Microsoft Corporation Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
US6269484B1 (en) * 1997-06-24 2001-07-31 Ati Technologies Method and apparatus for de-interlacing interlaced content using motion vectors in compressed video streams
DE19730305A1 (de) * 1997-07-15 1999-01-21 Bosch Gmbh Robert Verfahren zur Erzeugung eines verbesserten Bildsignals bei der Bewegungsschätzung von Bildsequenzen, insbesondere eines Prädiktionssignals für Bewegtbilder mit bewegungskompensierender Prädiktion
EP0907145A3 (de) * 1997-10-03 2003-03-26 Nippon Telegraph and Telephone Corporation Verfahren und Vorrichtung zum Extrahieren von Merkmalen aus einer Bildsequenz
US7215376B2 (en) * 1997-10-06 2007-05-08 Silicon Image, Inc. Digital video system and methods for providing same
EP0926626A1 (de) * 1997-12-23 1999-06-30 Koninklijke Philips Electronics N.V. Bildverarbeitungsverfahren zur Rauschunterdrückung eines Bildes aus einer Folge von drei Bildern und medizinische Bilderzeugungseinheit zur Ausführung des Verfahrens
US6236738B1 (en) * 1998-04-09 2001-05-22 Board Of Trustees Of The Leland Stanford Junior University Spatiotemporal finite element method for motion analysis with velocity data
EP0957367A1 (de) * 1998-04-14 1999-11-17 THOMSON multimedia Verfahren zur Schätzung des Rauschpegels in einer Videosequenz
US6298144B1 (en) 1998-05-20 2001-10-02 The United States Of America As Represented By The National Security Agency Device for and method of detecting motion in an image
US6587158B1 (en) * 1998-07-23 2003-07-01 Dvdo, Inc. Method and apparatus for reducing on-chip memory in vertical video processing
US6489998B1 (en) 1998-08-11 2002-12-03 Dvdo, Inc. Method and apparatus for deinterlacing digital video images
US6515706B1 (en) * 1998-09-15 2003-02-04 Dvdo, Inc. Method and apparatus for detecting and smoothing diagonal features video images
US20070211167A1 (en) * 1998-10-05 2007-09-13 Adams Dale R Digital video system and methods for providing same
IT1313382B1 (it) * 1999-03-18 2002-07-23 St Microelectronics Srl Stima del moto ricorsiva spazio temporale con sottocampionamento ad 1/2 di macroblocco e ad 1/4 di pixel
US6909469B2 (en) * 1999-08-11 2005-06-21 Silicon Image, Inc. Interlace motion artifact detection using vertical frequency detection and analysis
US7145607B1 (en) * 1999-11-11 2006-12-05 Stmicroelectronics Asia Pacific Pte. Ltd. Spatio-temporal video noise reduction system
US6867814B2 (en) 2000-04-18 2005-03-15 Silicon Image, Inc. Method, system and article of manufacture for identifying the source type and quality level of a video sequence
US6738520B1 (en) 2000-06-19 2004-05-18 Intel Corporation Method of compressing an image
US7046728B1 (en) 2000-06-30 2006-05-16 Intel Corporation Method of video coding the movement of a human face from a sequence of images
KR100327385B1 (en) * 2000-07-18 2002-03-13 Lg Electronics Inc Spatio-temporal three-dimensional noise filter
JP3859989B2 (ja) * 2000-10-30 2006-12-20 株式会社モノリス 画像マッチング方法およびその方法を利用可能な画像処理方法と装置
US7061524B2 (en) * 2001-11-13 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Motion/saturation detection system and method for synthesizing high dynamic range motion blur free images from multiple captures
US7009636B2 (en) * 2001-11-13 2006-03-07 The Board Of Trustees Of The Leland Stanford Junior University Photocurrent estimation from multiple captures for simultaneous SNR and dynamic range improvement in CMOS image sensors
AU2003209553A1 (en) * 2002-03-13 2003-09-22 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
EP2164261A3 (de) 2002-07-11 2011-08-17 Panasonic Corporation Filterstärkebestimmungsverfahren, Verfahren zur Codierung und zur Decodierung von beweglichen Bildern
DE10235657A1 (de) * 2002-08-02 2004-02-12 Leica Microsystems Heidelberg Gmbh Verfahren, Anordnung und Software zur Optimierung der Bildqualität von mit einem Mikroskop aufgenommenen beweglichen Objekten
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
AU2003286640A1 (en) * 2002-10-25 2004-05-25 Pall Corporation Biological fluid filter
US7489829B2 (en) * 2003-03-11 2009-02-10 Sightic Vista Ltd. Adaptive low-light image processing
US7359562B2 (en) * 2003-03-19 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Enhancing low quality videos of illuminated scenes
US7245783B2 (en) * 2003-06-24 2007-07-17 Eastman Kodak Company System and method for estimating, synthesizing and matching noise in digital images and image sequences
CN1856990A (zh) * 2003-09-23 2006-11-01 皇家飞利浦电子股份有限公司 使用频带内运动补偿时间滤波的视频去噪声算法
US7295616B2 (en) * 2003-11-17 2007-11-13 Eastman Kodak Company Method and system for video filtering with joint motion and noise estimation
US7702178B2 (en) * 2004-03-15 2010-04-20 Sarnoff Corporation Method and apparatus for providing noise reduction
JP4534594B2 (ja) * 2004-05-19 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
US7542620B1 (en) * 2004-08-16 2009-06-02 Apple Inc. Robust temporal dithering and filtering
US7330218B2 (en) * 2004-09-02 2008-02-12 Samsung Electronics Co., Ltd. Adaptive bidirectional filtering for video noise reduction
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
TWI288353B (en) * 2004-12-24 2007-10-11 Lite On Semiconductor Corp Motion detection method
EP1977395B1 (de) * 2006-01-27 2018-10-24 Imax Corporation Verfahren und system zum digitalen remastering von 2d- und 3d-filmen zur steigerung von deren visueller qualität
EP2033164B1 (de) 2006-06-23 2015-10-07 Imax Corporation Verfahren und systeme zur umwandlung von 2d-filmen für stereoskopische 3d-vorführung
US20080101469A1 (en) * 2006-10-31 2008-05-01 Motorola, Inc. Method and apparatus for adaptive noise filtering of pixel data
WO2008073416A1 (en) * 2006-12-11 2008-06-19 Cinnafilm, Inc. Real-time film effects processing for digital video
US8300987B2 (en) * 2007-09-28 2012-10-30 Ati Technologies Ulc Apparatus and method for generating a detail-enhanced upscaled image
US8964117B2 (en) 2007-09-28 2015-02-24 Ati Technologies Ulc Single-pass motion adaptive deinterlacer and method therefore
US8259228B2 (en) * 2007-12-10 2012-09-04 Ati Technologies Ulc Method and apparatus for high quality video motion adaptive edge-directional deinterlacing
US8396129B2 (en) * 2007-12-28 2013-03-12 Ati Technologies Ulc Apparatus and method for single-pass, gradient-based motion compensated image rate conversion
US11677938B2 (en) * 2008-04-30 2023-06-13 Arris Enterprises Llc Method to reduce contour artifacts on recursive temporal filters
US20100026897A1 (en) * 2008-07-30 2010-02-04 Cinnafilm, Inc. Method, Apparatus, and Computer Software for Modifying Moving Images Via Motion Compensation Vectors, Degrain/Denoise, and Superresolution
US8130278B2 (en) * 2008-08-01 2012-03-06 Omnivision Technologies, Inc. Method for forming an improved image using images with different resolutions
US8811771B2 (en) * 2008-08-22 2014-08-19 Adobe Systems Incorporated Content aware slideshows
JP2010211552A (ja) * 2009-03-11 2010-09-24 Rohm Co Ltd 画像処理方法及びコンピュータプログラム
KR101007384B1 (ko) * 2009-11-26 2011-01-13 삼성탈레스 주식회사 인접한 블록의 특성을 고려한 적응적 필터링 방법
US8891831B2 (en) * 2010-12-14 2014-11-18 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus for conservative motion estimation from multi-image sequences
JP6071444B2 (ja) * 2012-11-07 2017-02-01 キヤノン株式会社 画像処理装置及びその作動方法、プログラム
US9036089B2 (en) * 2012-11-27 2015-05-19 Disney Enterprises, Inc. Practical temporal consistency for video applications
RU2683857C2 (ru) * 2013-03-25 2019-04-02 Аймакс Корпорейшн Улучшение киноизображений с использованием точной информации о движении
US20170084007A1 (en) * 2014-05-15 2017-03-23 Wrnch Inc. Time-space methods and systems for the reduction of video noise
EP3811328A4 (de) 2018-06-14 2021-09-29 Shanghai United Imaging Healthcare Co., Ltd. Verfahren und systeme zur bildverarbeitung
US10652552B1 (en) 2019-02-01 2020-05-12 Google Llc Efficient noise reduction coding

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4383272A (en) * 1981-04-13 1983-05-10 Bell Telephone Laboratories, Incorporated Video signal interpolation using motion estimation
US4482970A (en) * 1981-11-06 1984-11-13 Grumman Aerospace Corporation Boolean filtering method and apparatus
JPH0644815B2 (ja) * 1984-04-27 1994-06-08 日本電気株式会社 動物体の動き内挿装置
US4745458A (en) * 1984-11-21 1988-05-17 Hitachi, Ltd. Television signal processing system
DE3682068D1 (de) * 1986-03-19 1991-11-21 British Broadcasting Corp Fernsehbild-bewegungsmessung.
FR2597283B1 (fr) * 1986-04-15 1988-06-10 Labo Electronique Physique Dispositif de traitement d'images pour l'estimation du deplacement d'objets situes dans celles-ci
JPS63222589A (ja) * 1987-03-12 1988-09-16 Toshiba Corp ノイズ低減回路
EP0294962B1 (de) * 1987-06-09 1995-07-19 Sony Corporation Bewertung von Bewegungsvektoren in Fernsehbildern
FR2623040B1 (fr) * 1987-11-09 1990-02-09 France Etat Procede et dispositif de traitement de signaux d'image a balayage de trame entrelace
FR2624997B1 (fr) * 1987-12-16 1990-06-01 France Etat Procede d'estimation multi predictif du mouvement des points d'une image electronique
GB2231460B (en) * 1989-05-04 1993-06-30 Sony Corp Spatial interpolation of digital video signals

Also Published As

Publication number Publication date
JPH05135170A (ja) 1993-06-01
EP0512422A3 (en) 1993-03-31
US5600731A (en) 1997-02-04
EP0512422A2 (de) 1992-11-11
EP0512422B1 (de) 1997-04-02
DE69218656D1 (de) 1997-05-07

Similar Documents

Publication Publication Date Title
DE69218656T2 (de) Verfahren zur zeitlichen adaptiven Filterung von verrauschten Bildsequenzen
DE69314630T2 (de) Verfahren zur adaptiven schätzung von unerwüschten bild-erschütterungen in bildsequenzen von digitalen fernsehsignalen
DE69509577T2 (de) Anordnung zur Verminderung des Rauschens unter Verwendung von zeitvarianten Filterkoeffizienten
DE69031055T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69332552T2 (de) Bestimmung der Position und der Bewegung einer Studiokamera unter Benutzung des Kamerabildes
DE602005004694T2 (de) Verfahren und Vorrichtung für lokal adaptive Bildverarbeitungsfilter
EP0293644B1 (de) Verfahren zur Ermittlung von Bewegungsvektorfeldern aus digitalen Bildsequenzen
DE69418244T2 (de) Videorauschreduktionsystem unter Verwendung einer Mehrbild-Bewegungsabschätzung, Unterdrückung von Abweichungen und Bahnkorrektur
DE69333846T2 (de) Verfahren zur mischung von bildern und vorrichtung hierzu.
DE69601177T2 (de) Bildrauschverringerungssystem unter verwendung eines veränderbaren wiener filters in einer pyramidialen bilddarstellung
DE69022470T2 (de) Bewegungsabhängige Videosignalverarbeitung.
DE69028946T2 (de) Verfahren zur adaptiven Schärfung elektronischer Bilder
DE69728247T2 (de) Pyramidenförmiger pipeline-prozessor für ein bildverarbeitungssystem
DE69324513T2 (de) System zur Bildherstellung und zugeordnetes Verfahren zur Minimierung von Konturen für ein quantisiertes Digitalfarbbild
DE602004009702T2 (de) Verfahren und System zur automatischen Reduzierung von Aliasing-Artefakten
DE69422255T2 (de) Verfahren und Vorrichtung zum bewegungsausgeglichenen Interpolieren von zwischenliegenden Halbbildern oder Bildern
DE3874705T2 (de) Verfahren zur bewegungsabschaetzung mit mehreren prediktoren fuer punkte eines elektronischen bildes.
DE112016005905B4 (de) Verfahren und System zum Verschmelzen erfasster Messungen
DE102004007637A1 (de) Verfahren zum Erzeugen eines Bildes mit erhöhter Auflösung unter Verwendung einer Mehrzahl von Bildern mit niedriger Auflösung
DE112011102647T5 (de) Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung
DE69318377T2 (de) Methode und Vorrichtung zur Erhöhung der Bildfrequenz
DE69818751T2 (de) Dekompression von interpolierten Bildern
EP0468279B1 (de) Verfahren zum Bestimmen von Bewegungsvektoren für Teilbildbereiche einer Quellbildsequenz
DE4342305A1 (de) Verfahren zur hierarchischen Bewegungsschätzung in einem Fernsehsignal
EP3635677B1 (de) Verfahren und vorrichtung zur bildkorrektur

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee