[go: up one dir, main page]

DE69601880T2 - Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio - Google Patents

Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio

Info

Publication number
DE69601880T2
DE69601880T2 DE69601880T DE69601880T DE69601880T2 DE 69601880 T2 DE69601880 T2 DE 69601880T2 DE 69601880 T DE69601880 T DE 69601880T DE 69601880 T DE69601880 T DE 69601880T DE 69601880 T2 DE69601880 T2 DE 69601880T2
Authority
DE
Germany
Prior art keywords
lines
screen
camera
horizontal
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69601880T
Other languages
English (en)
Other versions
DE69601880D1 (de
Inventor
David 63415 Tel-Aviv Aufhauser
Zinovy 43451 Raanana Livshits
Moshe 43254 Raanana Nissim
Avi 67727 Ramat Hasharon Sharir
Alexander 43452 Raanana Steinberg
Michael 69122 Tel Aviv Tamir
Itzhak 47212 Ramat-Gan Wilf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orad Hi Tec Systems Ltd
Original Assignee
Orad Hi Tec Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orad Hi Tec Systems Ltd filed Critical Orad Hi Tec Systems Ltd
Application granted granted Critical
Publication of DE69601880D1 publication Critical patent/DE69601880D1/de
Publication of DE69601880T2 publication Critical patent/DE69601880T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Accessories Of Cameras (AREA)
  • Details Of Television Scanning (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf Verfahren und Vorrichtungen zum Erzeugen virtueller Bilder und zum Bestimmen der Relativposition einer Fernsehkamera.
  • Farbsättigungsschirme sind bekannt zur Verwendung in Fernsehstudios. Durch Fokussieren einer Fernsehkamera auf einen Farbsättigungshintergrund (bzw. einen Farbsättigungsschirm) und Positionieren eines Vordergrundobjekts vor dem Schirm kann ein kombiniertes Bild erzeugt werden, in dem das Vordergrundobjekt vor einem virtuellen Hintergrund erscheint, der z. B. ein stehendes Bild oder eine Videosequenz sein kann.
  • Ein Problem, das von dieser Grundtechnik herrührt, ist, daß der Kamera nicht erlaubt werden kann, sich zu bewegen, weil der virtuelle Hintergrund und das Vordergrundobjekt (möglicherweise ein Fernsehmoderator) sich nicht synchron wie im wahren Leben bewegen werden.
  • In der JP 57-93788 wird ein Farbsättigungsschirm verwendet, der eine Reihe von äquidistanten parallelen Geraden, Fig. 11, aus zwei unterschiedlichen Schattierungen der Hintergrundfarbe umfaßt, um jegliche Änderungen der Vergrößerung anzuzeigen, die sich als Änderungen in der Frequenz des Videosignals zeigen. Die Grenzen eines Farbsättigungsfensters werden detektiert, um so das eingesetzte Bild in Größe und Position auf das Farbsättigungsfenster abzustimmen.
  • Die Perspektive kann durch Verwendung eines zwei Schattierungen aufweisenden Musters mit charakteristischen Merkmalen aufgelöst werden. Solche Merkmale können Buchstaben, Symbole, Eckpunkte von Polygonen etc. sein. Wann immer mindestens die Bildmerkmale mit dem physikalischen Muster in Übereinstimmung gebracht werden können, kann die Perspektive aufgelöst werden.
  • Für den Zweck der folgenden Erfindung wird die Beschreibung allgemein auf die Verwendung einer Fernsehkamera innerhalb eines virtuellen Studios beschränkt werden, aber es ist zu verstehen, daß die Erfindung für das grundsätzliche Fahren einer Fernsehkamera oder eines Objekts, auf der diese angeordnet ist, verwendet werden kann.
  • In der parallel anhängigen israelischen Patentanmeldung Nr. 109 487 (WO-A-95/30312) desselben Anmelders, wird die Verwendung von gemusterten Farbsättigungsschirmen offenbart. Diese Schirme haben ein definiertes Muster, was es ermöglicht, das von der Fernsehkamera erzeugte Videosignal zu verarbeiten, um die Position der Kamera festzustellen.
  • Die PCT-Patentanmeldung WO-A-94/05118 offenbart einen gleichmäßig gemusterten Farbsättigungshintergrundschirm und umfaßt Mittel für das Bestimmen der Perspektive einer Kamera relativ zu dem Schirm mittels eines Bewegungsabschätzungsprozesses, der auf der Änderung des sichtbaren Bilds des gleichmäßig gemusterten Schirms von einem abgelegten Video zum nächsten basiert, unter der Annahme einer bekannten Ausgangsposition.
  • Ein Problem, das bei dem obigen Systemen des Stands der Technik auftritt, ist, daß bei großen Vergrößerungsfaktoren die Merkmale im Blickfeld (Field of View = FOV) in ihrer Zahl reduziert werden. Außerdem kann bei einer wesentlichen Okklusion die Erkennung von groben Merkmalen schwierig sein. Da die vorliegende Erfindung eine Bewegung und einen Vergrößerungswechsel der Kamera erlaubt und es dem Vordergrundobjekt ebenfalls erlaubt ist, sich zu bewegen, ist es sehr wahrscheinlich, daß diese Umstände eintreten.
  • Zusätzlich machen große perspektivische Verzerrungen die Erkennung von Merkmalen sehr schwierig, insbesondere, wenn diese Merkmale Buchstaben, graphische Symbole etc. aufweisen.
  • Wenn die Kamera die Synchronisation zwischen dem realen Vordergrundobjekt und dem virtuellen Hintergrund verliert, dann ist der Effekt ein Verlust an Realität bei dem zusammengesetzten Bild. So waren, wie oben beschrieben, frühere Vorgängersysteme auf eine statische Kamera beschränkt und spätere Systeme, obwohl sie eine Kamerabewegung erlaubten, konnten immer noch einen Verlust an Synchronisation zwischen dem Vordergrund und dem Hintergrund unterworfen sein.
  • Offensichtlich kann die Synchronisation nicht erhalten bleiben, wenn nichts von dem gemusterten Farbsättigungshintergrund sichtbar ist. Sie ist dann aber auch nicht notwendig, da kein virtueller Hintergrund gezeigt werden wird.
  • Wenn die Kamera das Vordergrundobjekt vergrößert, wird der Hintergrundfarbsättigungsschirm zunehmend durch das Vordergrundobjekt verdeckt und das charakteristische Muster wird gebrochen und/oder im Fall großer perspektivischer Ansichten verzerrt.
  • Es ist ein Gegenstand der vorliegenden Erfindung, eine Fernsehkamerapositionsbestimmungsvorrichtung und ein Verfahren zum Messen der Position einer Fernsehkamera relativ zu einem Schirm bereitzustellen, wenn ein Teil des Schirms durch ein Vordergrundobjekt verdeckt ist.
  • Es ist auch ein Gegenstand der vorliegenden Erfindung, ein virtuelles Studiosystem bereitzustellen, in dem die Fernsehkamera seitlich bezüglich eines Vordergrundobjekts und bezüglich eines Hintergrundfarbsättigungsschirms bewegt werden kann, indem die Kamera das Vordergrundobjekt vergrößern und verkleinern kann, ohne die Synchronisation zwischen dem Vordergrundobjekt und dem virtuellen Hintergrund zu verlieren, selbst wenn der Farbsättigungsschirm im wesentlichen vollständig von dem Vordergrundobjekt verdeckt wird.
  • Es ist auch ein weitere Gegenstand der vorliegenden Erfindung, eine Kamerapositioniervorrichtung bereitzustellen, bei der die Position einer Fernsehkamera relativ zu einem gemusterten Schirm bestimmt werden kann, selbst wenn ein wesentlicher Teil des Schirms durch ein verdeckendes Objekt abgedeckt ist.
  • Die vorliegende Erfindung stellt deshalb ein Verfahren zum Bestimmen der Position einer Fernsehkamera relativ zu einem gemusterten Schirm bereit, der durch die Videokamera betrachtet wird, mit den Schritten:
  • Identifizieren einer Mehrzahl von Kantenpunkten des Musters aus dem von der Kamera erzeugten Videosignal und Verwenden dieser Kantenpunkte zum Berechnen der Perspektive des Musters relativ zu der Kamera, dadurch gekennzeichnet, daß die Mehrzahl der Kantenpunkte unter Anwendung eines Steigungs- und Achsenabschnittsverfahrens mit assoziierten Kantenpunkten zu spezifischen Geraden gruppiert werden und daß die relative Position der Kamera und des gemusterten Schirms unter Verwendung der Perspektive und der Größe des Schirms, wie er von der Kamera betrachtet wird, bestimmt wird.
  • Vorzugsweise weist das Verfahren die Schritte des Identifizierens einer Mehrzahl von ersten Kantenpunkten und einer Mehrzahl von zweiten Kantenpunkten auf und das Erzeugen eines Kantenbilds.
  • Vorzugsweise werden zwei oder mehr Familien von Kanten verwendet, so daß die Kanten jeder Familie auf einem Satz von parallelen Geraden liegen, der mindestens zwei Geraden aufweist. Vorzugsweise sind die Orientierungen der Familien ausreichend unterschiedlich, so daß ein Kantenpunkt allein aufgrund seiner Orientierung einer bestimmten Familie zugeordnet werden kann.
  • In einer speziellen Ausführungsform, weist der gemusterte Schirm ein Muster aus vertikalen und horizontalen geraden Kanten auf, die Geraden definieren, welche eine Farbdifferenz markieren, wobei jeder Kantenpunkt auf einer der horizontalen bzw. vertikalen Geraden angeordnet ist.
  • In einer zweiten Ausführungsform weisen die Schritte des Verarbeitens des Videosignals, das sich auf die erste und die zweite Mehrzahl von Kantenpunkten bezieht, die Schritte des Analysierens aller detektierten Kantenpunkte und des Zusammengruppierens der Kantenpunkte in eine erste Mehrzahl von Gruppen, die den horizontalen Geraden entspricht, und eine zweite Mehrzahl von Gruppen, die den vertikalen Geraden entspricht, auf.
  • Vorzugsweise werden die Kantenpunkte in der ersten und der zweien Mehrzahl von Gruppen vorbereitend bestimmten horizontalen und vertikalen Geraden zugeordnet.
  • Vorzugsweise folgt dem Schritt der Zuordnung eine Berechnung der Fluchtpunkte der horizontalen und der vertikalen Geraden, wobei die Fluchtpunkte mit einem definierten Ortsfehler berechnet werden.
  • Die perspektivische Projektion jedes Satz von parallelen Geraden, die nicht parallel zur Bildebene liegen, wird in einen Fluchtpunkt konvergieren. In dem Ausnahmefall, in dem die Geraden parallel zur Bildebene liegen, liegt der Fluchtpunkt im Unendlichen.
  • Vorzugsweise umfaßt das Verfahren auch den Schritt des Projizierens der Kanten, die horizontalen Kanten entsprechen, um eine Kantenprojektionsprofilkarte zu erhalten, die Peaks und Minimumbereiche aufweist.
  • In dem Projektionsprozeß wird ein vertikales Akkumulatorarray H[y] vorzugsweise auf null zurückgesetzt. Dann wird für jede horizontale Kante die Gerade berechnet, die den Fluchtpunkt (zuvor für horizontale Kanten berechnet) mit der Kante verbindet. Diese Gerade wird dann mit der Vertikalachse (x = 0) geschnitten. Der Eintrag des Akkumulatorarrays, welcher dem Schnittpunkt entspricht, wird dann inkrementiert. Peaks in dem Array entsprechen Kanditatengeraden.
  • Vorzugsweise umfaßt das Verfahren weiterhin den Schritt des Zuordnens jeder horizontalen Kante zu einem meistwahrscheinlichen Peak und des Erzeugens einer Liste von Kanten für jede einer Mehrzahl von Kanditatengeraden, die durch den Peak angezeigt wird.
  • Vorzugsweise wird eine Gerade für jede Liste von Kanten spezifiziert, wobei Kanten, die keiner spezifizierten Geraden entsprechen, nicht beachtet werden.
  • Die Verfahrensschritte werden dann vorzugsweise für vertikale Kanten und Geraden wiederholt.
  • Bei dem Verfahren wird ein genaues Videobildkantengeradenmuster erzeugt, wobei das bekannte Muster auf dem Schirm mit dem Kantengeradenmuster verglichen wird.
  • Dieser Vergleich weist vorzugsweise einen ersten Schritt des Indentifizierens einer ersten horizontalen Geraden in dem genauen Videokantenbildmuster, des Indentifizierens einer zweiten horizontalen Geraden in dem genauen Videokantenbildmuster, des Berechnens der Distanz zwischen der ersten und der zweiten Videobildgeraden, des Vergleichens der berechneten Distanz zwischen den Videobildgeraden mit dem bekannten Muster zum Durchführen einer horizontalen Positions- und Skalierungsbestimmung, des Wiederholens der Schritte zum Durchführen einer vertikalen Positions- und Skalierungsbestimmung und des Bestimmens der Position der Fernsehkamera relativ zu dem Schirm aus den horizontalen und vertikalen Positions- und Skalierungsbestimmungen auf.
  • Wenn einmal alle Positionen und Skalierungen bestimmt worden sind, ist die Übereinstimmung zwischen dem Muster und dem Bild jetzt vollständig. Vorzugsweise wird diese Übereinstimmung verwendet, um die endgültige genau perspektivische Transformation zwischen dem Muster und dem Bild aufzulösen.
  • Vorzugsweise wird die perspektivische Transformation verwendet, um die Position der Fernsehkamera relativ zu dem Schirm aufzulösen.
  • Vorzugsweise weist der gemusterte Schirm einen Farbsättigungsschirm mit zwei getrennt identifizierbaren Sättigungsfarben auf. Vorzugsweise weist der gemusterte Schirm zwei oder mehr durch Abstand codierte Familien von Geraden auf.
  • In einer weiteren bevorzugten Ausführungsform weist der gemusterte Schirm zwei oder mehr Familien von Geraden derart auf, daß sich die Geraden jeder Familie in einem gemeinsamen Punkt schneiden.
  • Die vorliegende Erfindung stellt auch eine Vorrichtung zum Bestimmen der Position einer Fernsehkamera relativ zu einem gemusterten Schirm, der durch die Fernsehkamera betrachtet wird, bereit, wobei die Vorrichtung Mittel zum Identifizieren einer Mehrzahl von Kantenpunkten des Musters aus dem von der Kamera erzeugten Videosignal und zum Verwenden der Kantenpunkte zum Berechnen der Perspektive des Musters relativ zu der Kamera umfaßt, dadurch gekennzeichnet, daß die Vorrichtung weiterhin Mittel zum Gruppieren der Mehrzahl von Kantenpunkten unter Verwendung eines Steigungs- und Achsenabschnittsverfahrens zu assoziierten Kantenpunkten für spezifische Geraden umfaßt und daß die Vorrichtung Mittel zum Bestimmen der relativen Position der Kamera und des gemusterten Schirms unter Bezugnahme auf die Perspektive und die Größe des Schirms, wie er von der Kamera betrachtet wird, umfaßt.
  • Ausführungsformen der vorliegenden Erfindung werden jetzt in Form von Beispielen mit Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen:
  • Fig. 1 einen gemusterten Schirm zur Verwendung bei der vorliegenden Erfindung zeigt;
  • Fig. 2 eine Naheinstellung eines Bereichs des Schirms gemäß Fig. 1 mit einem verdeckenden Objekt, das einen Teil des Musters abdeckt, zeigt;
  • Fig. 3 eine perspektivische Ansicht von Fig. 2 von einer Seite zeigt;
  • Fig. 4 eine komplexe perspektivische Ansicht von einer Seite und von oben zeigt;
  • Fig. 5 den Prozeß der Identifikation von Kantenpunkten illustriert;
  • Fig. 6 schematisch die anfängliche Fluchtpunktberechnung für die Kantenpunkte illustriert;
  • Fig. 7 schematisch das berichtigte Geradenbild illustriert;
  • Fig. 8 die projizierten Geradenbilder für horizontale Geraden illustriert;
  • Fig. 9 die genauen Videogeraden nach dem abschließenden Verarbeiten zum Vergleich mit dem Muster gemäß Fig. 1 zeigt;
  • Fig. 10 das erfinderische Konzept des Verwendens von codierten Bündeln von Geraden illustriert;
  • Fig. 11 den Hauptfluß der Verarbeitung zeigt, und
  • Fig. 12 den Geradendetektionsprozeß illustriert.
  • Jetzt mit Bezugnahme auf die Zeichnungen zeigt Fig. 1 einen gemusterten Schirm 10, der eine Mehrzahl von vertikalen und horizontalen Geraden 12, 14 aufweist. Diese Geraden können durch schmale Geraden oder Streifen von unterschiedlicher Farbe ausgebildet sein, deren Funktion es ist, eine Mehrzahl von definierten Kanten bereitzustellen.
  • Bei Farbsättigungsschirmen sind die Farben der Geraden bzw. Streifen vorzugsweise unterschiedliche Schattierungen derselben Farbe.
  • Die Geraden müssen keine horizontalen bzw. vertikalen Geraden sein. Sie werden jedoch vorzugsweise immer parallele geradlinige Geraden mit einer vorgegebenen Winkelbeziehung zwischen den im wesentlichen horizontalen und vertikalen Geraden sein. Vorzugsweise sind in jedem Muster zwei oder mehr Familien von Kanten derart vorgesehen, daß die Kanten von jeder Familie auf einem Satz von parallelen Geraden liegen, der mindestens 2 Geraden aufweist. Ebenfalls vorzugsweise sind die Orientierungen der Familien derart weit unterschiedlich, daß ein Kantenpunkt allein aufgrund seiner Orientierung einer bestimmten Familie zugeordnet werden kann.
  • Die schematisch angedeutete Fernsehkamera 20 ist in Fig. 1 dargestellt, wie sie den Schirm direkt von vorne betrachtet.
  • In Fig. 2 ist das Videobild gezeigt, das von der Kamera 20 gesehen wird. Die Fernsehkamera 20 wird bedient, um den in Fig. 1 gestrichelten Bereich 10' zu vergrößern, und ein verdeckendes Objekt 30 von unregelmäßiger Form ist gezeigt, wie es einen Teil des Musters verdeckt. Das Muster in Fig. 2 ist deshalb nicht kontinuierlich, und es ist sichtbar, daß keine durchgehenden horizontalen Geraden in dem vergrößerten Videobild vorliegen.
  • In Fig. 2 ist nur ein verdeckendes Objekt gezeigt, aber es können mehrere verdeckende Objekte existieren, die weitere Diskontinuitäten bei den Geraden erzeugen.
  • In Fig. 3 ist die Kamera verschoben worden, um eine einfache Perspektive zu erzeugen, die illustriert, daß die im wesentlichen horizontalen Geraden 40 nicht länger parallel sind, und in Fig. 4, in der noch komplexeren Perspektive, sind weder die horizontalen noch die vertikalen Geraden parallel.
  • Mit der Änderung in der Größe des Musters, den Diskontinuitäten der Geraden und dem nicht parallelen Bild ist das Anpassen des Videobildmusters in Fig. 4 an ein Muster des Schirms, das in digitalem Format gespeichert ist, extrem schwierig, das kein Teil des Videobilds dem gespeicherten Muster entspricht.
  • Das Verfahren der vorliegenden Erfindung stellt ein Mittel zum Bestimmen der Position der Fernsehkamera aus dem Videobild gemäß Fig. 4 bereit.
  • Vorzugsweise sind in dem Muster gemäß Fig. 1 die Geradenabstände nicht alle gleich, so daß die Abstandsverhältnisse in Sätzen von benachbarten Geraden einmalig innerhalb der Familie entweder der horizontalen oder vertikalen Geraden sind. So kann, falls es möglich ist, den Geradenabstand zwischen zwei vertikalen Geraden 121, 122 und zwei horizontalen Geraden 141, 142 zu identifizieren, der Bereich des Musters, der den Bereich des Videobilds ausbildet, identifiziert werden.
  • Aufgrund der unbekannten Vergrößerung bzw. des unbekannten Zooms der Fernsehkamera, der unbekannten komplexen Perspektive und der Verdeckung erscheinen die Geraden vollständig anders als in dem Muster in Fig. 1.
  • Das Verfahren weist das Identifizieren einer großen Mehrzahl von Kantenpunkten 144 auf, wie in Fig. 5 gezeigt ist. Jeder Kanten punkt kann angesehen werden, als Weise er eine Mini-Gerade mit einer Steigung und einem Achsenabschnitt auf, wie durch einen Winkel 148 angedeutet ist. Er kann auch eine nominelle Richtung haben, falls er auf einer Gerade irgendeiner Stärke liegt, wie durch einen Pfeil 146 angedeutet ist. Die Lagen dieser Kantenpunkte werden digital gespeichert, um eine anfängliche Kantenpunktkarte bereitzustellen. Wie in Fig. 4 gesehen werden kann, kann es im Zentralbereich, wo eine Abdeckung vorliegt, im wesentlich weiße Flächen geben, aber innerhalb dieser Fläche kann es falsche Kantenpunkte geben, die nicht korrekt zu dem Muster gehören, die aber aufgezeichnet werden und aussortiert werden müssen.
  • Die Kantenpunkte werden unter Verwendung der Hough-Transformation [J. Illingworth und J. Kittler, A survey of the Hough transform, Computer Vision, Graphics and Image Processing, 26, Seiten 139 bis 161 (1986)] in Gruppen bestimmten Geraden in horizontaler und vertikaler Richtung zugeordnet.
  • Alternativ wird die anfängliche Parallelität des Geradensatzes verwendet, um ungefähre Positionen des Geradensatzes in der horizontalen und vertikalen Richtung bereitzustellen.
  • Aus Fig. 4 ist ersichtlich, daß keine der Geraden aufgrund der perspektivischen Veränderung entweder horizontal oder vertikal ist. Diese Begriffe werden deshalb hier verwendet, um allgemein auf die Geraden Bezug zu nehmen, die im wesentlichen horizontal oder vertikal verlaufen, die sozusagen der Horizontalen näher als der Vertikalen sind und umgekehrt.
  • Jetzt bezugnehmend auf Fig. 6 wird jede Gerade, wie sie ungefähr entweder durch Gruppieren von Kantenpunkten und/oder durch Berechnung aus der anfänglichen Parallelität des Geradensatzes bestimmt wurde, auf einen ungefähren Fluchtpunkt sowohl für horizontale (150) als auch für vertikale Geraden (152) projiziert. Wie dargestellt werden sich die Geraden aufgrund der Fehler nicht in einem einzigen Punkt schneiden, und so ist ein "Fehlerkreis" (159, 152) erlaubt, wobei beispielsweise der Kreismittelpunkt als Fluchtpunkt betrachtet wird. Wenn die Kamera senkrecht auf den Schirm schaut, ist der Fluchtpunkt im unendlichen. Beim Arbeiten in einem homogenen Koordinatensystem, kann der letzte Fall gleichwie gehandhabt werden.
  • Mit Bezugnahme auf Fig. 7 wird der horizontale Fluchtpunkt verwendet, um die horizontalen Kantenpunkte in Geraden zu Gruppieren. Die Gerade, die den Fluchtpunkt Ph mit einem Kantenpunkt E1 verbindet, wird mit der vertikalen Achse geschnitten. Der Prozeß wird für alle horizontalen Kantenpunkte wiederholt. Natürlich tendieren die Achsenabschnitte von realen Geraden, die durch eine Mehrzahl von Kantenpunkten charakterisiert sind, dazu, sich zu akkumulieren, wie in Fig. 7 gezeigt ist. Falsche Kanten und sehr kurze sichtbare Geraden werden mehr zufällig beitragen. In Fig. 8 stellen die Achsenabschnitte eine Funktion vom Histogrammtyp dar. Der Prozeß ist für horizontale Geraden beschrieben, wird aber für vertikale Geraden wiederholt.
  • Jeder Kantenpunkt wird erneut durch Zuordnen zu dem meistwahrscheinlichen Peak eingestuft, und eine revidierte Liste von Kanten wird dann für jeden möglichen Kandidaten gespeichert, so wie 160, 161, 162 in Fig. 8.
  • Jene Kantenpunkte, von denen herausgefunden wird, daß sie keinem wahrscheinlichen Kandidaten entsprechen, werden verworfen. So ist für die horizontalen Geraden jetzt eine Liste von Kantenpunkten erzeugt worden, die exakt auf die horizontalen Geraden 141, 142 ausgerichtet sind, wobei die Gerade 141 beispielsweise auf dem Peak 161 und die Gerade 142 auf den Peak 162 mittels einer Liste von Kantenpunkten für jede Gerade ausgerichtet ist. Die Geraden sind deshalb exakt detektiert worden.
  • Dieser Prozeß wird dann für die vertikalen Geraden wiederholt.
  • Die Kantenpunkte, die einem meistwahrscheinlichen Peak zugeordnet sind, werden verarbeitet, um eine Gerade zu finden, die durch diese Punkte in einem optimalen Sinne hindurchtritt. Zum Beispiel kann eine Gerade mit dem kleinsten quadratischen Fehler berechnet werden. Die Fluchtpunkte können jetzt genauer als meistwahrscheinlicher Schnittpunkt eines Satzes von horizontalen (bzw. vertikalen) Geraden berechnet werden.
  • Der Fluchtpunkt des horizontalen Bündels sei in homogenen Koordinaten gegeben, durch (Xh, Yh, Wh). Weiterhin sei der Fluchtpunkt des vertikalen Bündels (bzw. Satzes von Geraden) gegeben durch (Xv, Yv, Wv). Diese Punkte entsprechen den Fluchtpunkten (1, 0, 0) und (0, 1, 0) der parallelen Bündel auf dem Schirm. Aus dieser Entsprechung kann die perspektivische Transformation aufgelöst werden in die Verschiebungs- und Skalierungsbestimmungen für beide Bündel. Das Anwenden der inversen Transformation auf die detektierten Geraden erzeugt ein genaues Gittermuster wie in Fig. 9 gezeigt.
  • Dieses Muster wird dann für jede Achse unabhängig mit dem gespeicherten Muster (Fig. 1) abgestimmt. In dem Suchprozeß kann jede Gerade L4 irgendeine Gerade in dem horizontalen Muster sein. L5 ist jedoch die nächste Gerade und da der Abstand oder das Muster einmalig ist, können die Geraden identifiziert werden. Wenn wir annehmen, daß keine Geraden fehlen, haben wir eine passende Lösung in der horizontalen Richtung und durch einen vergleichbaren Prozeß werden wir eine passende Lösung in der vertikalen Richtung erhalten.
  • Falls einige Geraden fehlen, dann wird eine Bewertung durchgeführt bezüglich der Zahl anderer passender Geraden, und eine Suche nach irgendwelchen fehlenden Geraden kann unter Verwendung der Kenntnis der passenden Geraden durchgeführt werden. Falls diese fehlenden Geraden vollständig verdeckt werden, kann eine Entscheidung aus einer Anpassung unter Verwendung eines Grenzwerts für die Bewertung sowohl der vertikalen als auch der horizontalen Richtung gefällt werden.
  • Um die exakten Fluchtpunkte und die Perspektive zu erhalten, wird für jede Gerade die korrigierte Liste von Kantenpunkten verwendet, um exakte Geradengleichungen bereitzustellen, wodurch es ermöglicht wird, die Fluchtpunkte exakt zu berechnen.
  • Wenn die Geraden angepaßt worden sind, kennt man nicht nur die perspektivische Verzerrung wie vorher, sondern auch die Verschiebungen und Skalierungen. Dies komplettiert die Bestimmung der perspektivischen Transformation und somit die Position der Fernsehkamera relativ zu dem Schirm.
  • Das System kann solche Informationen sowohl in dem Fall bereitstellen, daß eine oder mehrere Geraden in dem Muster vollständig verdeckt sind, als auch in dem Fall, daß die Geraden diskontinuierlich sind. Das System kann deshalb mit hohen Kameravergrößerungsparametern arbeiten, wobei nur ein kleiner Bruchteil des Schirms sichtbar ist.
  • Bezugnehmend jetzt auf Fig. 10 kann das Konzept einer Familie von parallelen Geraden ausgedehnt werden auf eine Familie sich schneidender Geraden unter Verwendung eines alternativen Systems von codierten Bündeln 200 (Fig. 10a) (Familien von Geraden). Die Geraden sind nicht parallel, dennoch kann man grundsätzlich dieselben Techniken anwenden.
  • Betrachte zwei parallele codierte Bündel 202', 204' ("primäre Bündel"), die durch eine bekannte perspektivische Transformation (die "Vortransformation") bei dem Schirmauslegungsprozeß in zwei sich schneidende Bündel ("Musterbündel") transformiert werden. Diese Bündel werden weiter transformiert durch die (unbekannte) Kameraperspektiventransformation und erscheinen als "Bildbündel" 202", 204" (Fig. 10c).
  • Es ist klar, daß die Kombination der Vortransformation und der Kameratransformation eine unbekannte perspektivische Transformation ist. Wir gehen wie in dem gewöhnlichen Algorithmus vor, um die unbekannte Transformation (zwischen den primären Bündeln Fig. 10a und den Bildbündeln Fig. 10c) herauszufinden. Wenn diese Transformation einmal bekannt ist, verwenden wir die Vortransformation, um die Kameratransformation (zwischen den Musterbündeln und den Bildbündeln) zu extrahieren.
  • Fig. 11 zeigt den Hauptfluß der Verarbeitung, der von einem Videosignal 1100 ausgeht und eine Abschätzung der perspektivischen Transformation 1102 von dem Schirm in das Bild erzeugt. Um die Anzahl von falschen Kanten aufgrund von Vordergrundobjekten zu reduzieren, wird eine Farbsättigungsentschlüsselung 1104 verwendet, um den Hintergrund (der die Musterinformation enthält) von dem Vordergrund zu trennen. Diese Trennung wird basierend auf einem Farbschlüsselsignal durchgeführt, das den Abstand eines bestimmten Bildpunkts von der Hintergrundfarbe (vorzugsweise blau oder grün) beschreibt. Um die Anzahl der falschen Kanten weiter zu reduzieren, wird das Farbschlüsselsignal vorzugsweise gefiltert 1106, um isolierte Merkmale und Pixel nahe der Grenze des Vordergrundobjekts zu entfernen. Dieses Filtern wird vorzugsweise unter Anwendung einer morphologischen Bildverarbeitung [Serra, J. Image Analysis and Mathematical Morphology, Academic Press, London 1982] ausgeführt.
  • Die Kantendetektion 1108 wird dann auf das Hintergrundbild angewendet. Das Verfahren ist nicht empfindlich bezüglich des im einzelnen verwendeten Kantendetektors für eine Übersicht siehe [A. Rosenfeld und A. Kak, Digital Picture Processing, Academic Press 1982, Vol. 2, Seiten 84-112].
  • Vorzugsweise besteht der Kantendetektionsprozeß aus den folgenden Schritten:
  • 1. Glätten des Bilds, um den Effekt von Bildrauschen zu reduzieren.
  • 2. Berechnen eines Gradientenvektors (Größe und Richtung) an jedem Bildpunkt durch räumliche x- und y-Ableitungen.
  • 3. Grenzwertvergleichen der Gradientengröße und Unterdrücken von Pixeln, bei denen die Gradientenantwort kein lokales Maximum hat. Dieser Unterdrückungsschritt ist notwendig, um dünne Kantenkonturen zu erhalten.
  • 4. Speichern der Kantenpunkte in einem Kantenarray.
  • Der Geradendetektionsprozeß wird mit Bezugnahme auf Fig. 12 für horizontale Geraden weiter beschrieben. Vertikale Geraden werden in vergleichbarer Weise bearbeitet.
  • Aus einer Liste von horizontalen Kantenpunkten wird ein ungefährer Fluchtpunkt berechnet 1202. Jede Kante wird durch einen Fluchtpunkt projiziert 1204, um ein Projektionshistogramm zu erzeugen, das analysiert wird 1206, um die Peaks zu finden. Die Liste der Peaks wird mit jedem Kantenpunkt verglichen, um einen Kantenpunkt einem Peak zuzuordnen und um dann die Geraden 1208 anzupassen, um eine Liste von Geraden bereitzustellen.

Claims (23)

1. Verfahren zum Bestimmen der Position einer Fernsehkamera (20) relativ zu einem gemusterten Schirm (10), der durch die Fernsehkamera betrachtet wird, mit den Schritten: Identifizieren einer Mehrzahl von Kantenpunkten (E1, E2, E3) des Musters aus dem von der Kamera (20) erzeugten Videosignal und Verwenden dieser Kantenpunkte zum Berechnen der Perspektive des Musters relativ zu der Kamera, dadurch gekennzeichnet, daß die Mehrzahl der Kantenpunkte (E1, E2, E3) unter Anwendung eines Steigungs- und Achsenabschnittsverfahrens mit assoziierten Kantenpunkten zu spezifischen Geraden gruppiert werden und daß die relative Position der Kamera und des gemusterten Schirms unter Verwendung der Perspektive und der Größe des Schirms, wie er von der Kamera betrachtet wird, bestimmt wird.
2. Verfahren nach Anspruch 1, das die Schritte aufweist: Identifizieren einer Mehrzahl von ersten Kantenpunkten und einer Mehrzahl von zweiten Kantenpunkten und Erzeugen eines Kantenbild.
3. Verfahren nach Anspruch 2, wobei der Schirm ein Muster aus vertikalen (L1, L2, L3) und horizontalen (L4, L5) geraden Kanten aufweist, die Geraden definieren, welche eine Farbdifferenz beschreiben, und wobei jeder Kantenpunkt auf einer der horizontalen bzw. vertikalen geradlinigen Geraden angeordnet ist.
4. Verfahren nach Anspruch 3, wobei die Schritte des Verarbeitens des Videosignals, das sich auf die erste und zweite Mehrzahl von Kantenpunkten bezieht, die Schritte aufweist: Analysieren aller detektierten Kantenpunkte und Zusammengruppieren der Kantenpunkte in eine erste Mehrzahl von Gruppen, die den horizontalen Geraden entspricht (202), und in eine zweite Mehrzahl von Gruppen, die den vertikalen Geraden entspricht (204').
5. Verfahren nach Anspruch 4, wobei die Kantenpunkte in der ersten und der zweiten Mehrzahl von Gruppen vorbereitend bestimmten horizontalen bzw. vertikalen Geraden zugeordnet werden.
6. Verfahren nach Anspruch 5, wobei dem Schritt der Zuordnung eine Berechnung der Fluchtpunkte der horizontalen und der vertikalen Geraden folgt, wobei die Fluchtpunkte mit einem definierten Ortsfehler berechnet werden.
7. Verfahren nach Anspruch 6, das weiterhin den Schritt aufweist: Projizieren der Kanten, die horizontalen Kanten entsprechen, um eine Kantenprojektionsprofilkarte (1206) zu erhalten, die Peaks (160, 161, 162) und Minimumbereiche aufweist.
8. Verfahren nach Anspruch 7, das weiterhin den Schritt aufweist Zuordnen jeder horizontalen Kante (1208) zu einem meistwahrscheinlichen Peak und Erzeugen einer Liste von Kanten für jede einer Mehrzahl von Kanditatengeraden, die durch den Peak angezeigt wird.
9. Verfahren nach Anspruch 8, wobei eine Gerade für jede Liste von Kanten spezifiziert wird, wobei Kanten, die keiner spezifizierten Gerade entsprechen, nicht beachtet werden.
10. Verfahren nach den Ansprüchen 6 bis 9, wobei die Schritte, die sich auf die horizontalen Kanten und Geraden beziehen, für die vertikalen Kanten und Geraden wiederholt werden.
11. Verfahren nach Anspruch 10, wobei genaue Fluchtpunkte aus den spezifizierten Geraden berechnet werden.
12. Verfahren nach Anspruch 10, wobei die Transformation der Perspektive aufgelöst wird, in Bestimmungen der Verschiebung und Skalierung für beide Familien von Geraden.
13. Verfahren nach Anspruch 12, wobei ein genaues Geradenmuster mittels inverser perspektivischer Transformation erzeugt wird und wobei das bekannte Muster auf dem Schirm mit dem Kantengeradenmuster verglichen wird.
14. Verfahren nach Anspruch 13, wobei der Vergleich einen ersten Schritt des Identifizierens einer ersten horizontalen Gerade in dem genauen Videokantenbildmuster, des Identifizierens einer zweiten horizontalen Gerade in dem genauen Videokantenbildmuster, des Berechnens der Distanz zwischen der ersten und der zweiten Videobildgeraden, des Vergleichens der berechneten Distanz zwischen den Videobildgeraden mit dem bekannten Muster zum Durchführen einer horizontalen Positions- und Skalierungsbestimmung, des Wiederholens der Schritte zum Durchführen einer vertikalen Positions- und Skalierungsbestimmung und des Bestimmens der Position der Fernsehkamera relativ zu dem Schirm aus den horizontalen und vertikalen Positions- und Skalierungsbestimmungen aufweist.
15. Verfahren nach einem der Ansprüche 1 bis 14, wobei der gemusterte Schirm ein Farbsättigungsschirm mit zwei getrennt identifizierbaren Sättigungsfarben aufweist.
16. Verfahren nach einem der Ansprüche 1 bis 4, wobei der gemusterte Schirm zwei oder mehr Familien von Geraden (202, 204) aufweist, die derart angeordnet sind, daß die Distanzen zwischen jeder Gerade und der benachbarten Gerade ungleich der Distanz zwischen der benachbarten Gerade und der nächsten benachbarten Gerade ist.
17. Verfahren nach einem der Ansprüche 1 bis 14, wobei der gemusterte Schirm zwei oder mehr Familien von Geraden derart aufweist, daß sich die Geraden jeder Familie in einem gemeinsamen Punkt (150, 152) schneiden.
18. Verfahren nach Anspruch 15, wobei die Bestimmung der Position der Fernsehkamera relativ zu dem Schirm verwendet wird, um die Perspektive eines Hintergrundvideobilds relativ zu einem Vordergrundobjekt zu berechnen.
19. Vorrichtung zum Bestimmen der Position einer Fernsehkamera (20) relativ zu einem gemusterten Schirm (10), der durch die Fernsehkamera betrachtet wird, wobei die Vorrichtung aufweist: Mittel (1108) zum Identifizieren einer Mehrzahl von Kantenpunkten (E1, E2, E3) des Musters aus dem von der Kamera (20) erzeugten Videosignal und zum Verwenden der Kantenpunkte zum Berechnen der Perspektive des Musters relativ zu der Kamera, dadurch gekennzeichnet, daß die Vorrichtung weiterhin Mittel zum Gruppieren der Mehrzahl von Kantenpunkten (E1, E2, E3) unter Verwendung eines Steigungs- und Achsenabschnittsverfahrens zu assoziierten Kantenpunkten für spezifische Geraden aufweist und daß die Vorrichtung Mittel zum Bestimmen der relativen Position der Kamera und des gemusterten Schirms unter Bezugnahme auf die Perspektive und die Größe des Schirms, wie er von der Kamera betrachtet wird, aufweist.
20. Vorrichtung nach Anspruch 19, wobei der gemusterte Schirm (10) ein Farbsättigungsschirm ist.
21. Vorrichtung nach Anspruch 19, die weiterhin weitere Verarbeitungsmittel (1102, 1104, 1108) zum Verarbeiten der berechneten Position der Kamera, Hintergrundszenenspeichermittel zum Speichern einer Hintergrundszene, perspektivische Verschiebungsmittel zum Einstellen der Perspektive der Hintergrundszene in Abstimmung auf die berechnete Kameraposition und Videoanzeigemittel zum Anzeigen der Hintergrundszene in korrekter Perspektive auf dem Farbsättigungshintergrundschirm, wobei Vordergrundobjekte zwischen der Kamera und dem Hintergrundschirm angeordnet sind, aufweist.
22. Vorrichtung nach einem der Ansprüche 19 und 21, wobei der gemusterte Schirm zwei oder mehr Familien von Geraden aufweist, die so angeordnet sind, daß die Distanzen zwischen jeder Gerade und der benachbarten Gerade ungleich der Distanz zwischen der benachbarten Gerade und der nächstbenachbarten Gerade sind.
23. Vorrichtung nach einem der Ansprüche 19 bis 21, wobei der gemusterte Schirm zwei oder mehr Familien von Geraden derart aufweist, daß sich die Geraden jeder Familie in einem gemeinsamen Punkt schneiden (150, 152).
DE69601880T 1995-09-08 1996-09-09 Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio Expired - Fee Related DE69601880T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9518432A GB2305050A (en) 1995-09-08 1995-09-08 Determining the position of a television camera for use in a virtual studio employing chroma keying
PCT/GB1996/002227 WO1997009830A1 (en) 1995-09-08 1996-09-09 Method and apparatus for determining the position of a tv camera for use in a virtual studio

Publications (2)

Publication Number Publication Date
DE69601880D1 DE69601880D1 (de) 1999-04-29
DE69601880T2 true DE69601880T2 (de) 1999-07-29

Family

ID=10780450

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69601880T Expired - Fee Related DE69601880T2 (de) 1995-09-08 1996-09-09 Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio

Country Status (16)

Country Link
US (2) US6304298B1 (de)
EP (1) EP0848886B1 (de)
JP (1) JPH11503588A (de)
CN (1) CN1104816C (de)
AT (1) ATE178180T1 (de)
AU (1) AU6935396A (de)
BR (1) BR9606555A (de)
DE (1) DE69601880T2 (de)
GB (1) GB2305050A (de)
HU (1) HUP9900176A2 (de)
IL (1) IL123372A (de)
NO (1) NO981010L (de)
PL (1) PL325423A1 (de)
TR (1) TR199800397T2 (de)
WO (1) WO1997009830A1 (de)
ZA (1) ZA967588B (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen
DE102021106488A1 (de) 2020-12-23 2022-06-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
GB9607541D0 (en) * 1996-04-11 1996-06-12 Discreet Logic Inc Processing image data
GB2312125B (en) * 1996-04-11 1998-07-01 Discreet Logic Inc Processing image data
IL123733A0 (en) * 1997-03-27 1998-10-30 Rt Set Ltd Method for compositing an image of a real object with a virtual scene
GB2324429A (en) * 1997-04-02 1998-10-21 Orad Hi Tec Systems Ltd Electronic zoom control in a virtual studio
US5930740A (en) * 1997-04-04 1999-07-27 Evans & Sutherland Computer Corporation Camera/lens calibration apparatus and method
NO304715B1 (no) * 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
DE69831181T2 (de) * 1997-05-30 2006-05-18 British Broadcasting Corp. Positionsbestimmung
GB2329292A (en) * 1997-09-12 1999-03-17 Orad Hi Tec Systems Ltd Camera position sensing system
WO1999043150A1 (de) * 1998-02-18 1999-08-26 Gmd - Forschungszentrum Informationstechnik Gmbh Kamera tracking system für ein virtuelles fernseh- oder videostudio
RU2161871C2 (ru) * 1998-03-20 2001-01-10 Латыпов Нурахмед Нурисламович Способ и система для создания видеопрограмм
US6912293B1 (en) 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US6038889A (en) * 1999-04-14 2000-03-21 Libbey Glass Inc. Cooling system for a glassware machine
US6965397B1 (en) 1999-11-22 2005-11-15 Sportvision, Inc. Measuring camera attitude
GB2356998A (en) * 1999-12-02 2001-06-06 Sony Uk Ltd Video signal processing
US6778699B1 (en) * 2000-03-27 2004-08-17 Eastman Kodak Company Method of determining vanishing point location from an image
NO20014275L (no) * 2000-09-08 2002-03-11 Fraunhofer Ges Forschung Fremgangsmåte for å lage et bilde i et virtuelt studio
US7113633B2 (en) * 2001-07-02 2006-09-26 Photoinaphoto.Com, Inc. System and method for discovering and categorizing attributes of a digital image
US6873732B2 (en) * 2001-07-09 2005-03-29 Xerox Corporation Method and apparatus for resolving perspective distortion in a document image and for calculating line sums in images
CA2478243C (en) * 2002-03-22 2012-07-24 British Telecommunications Public Limited Company Anomaly recognition
JP4202271B2 (ja) * 2002-03-22 2008-12-24 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー パターンの比較
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
JP4508553B2 (ja) * 2003-06-02 2010-07-21 カシオ計算機株式会社 撮影画像投影装置、及び撮影画像の補正方法
US7116342B2 (en) * 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
JP2005122323A (ja) * 2003-10-14 2005-05-12 Casio Comput Co Ltd 撮影装置、画像処理装置、撮影装置の画像処理方法及びプログラム
JP4363151B2 (ja) * 2003-10-14 2009-11-11 カシオ計算機株式会社 撮影装置、その画像処理方法及びプログラム
GB0328326D0 (en) 2003-12-05 2004-01-07 British Telecomm Image processing
JP3925521B2 (ja) 2004-08-19 2007-06-06 セイコーエプソン株式会社 スクリーンの一部の辺を用いたキーストーン補正
DE602005008993D1 (de) 2004-09-17 2008-09-25 British Telecomm Public Ltd Co Analyse von mustern
EP1732030A1 (de) * 2005-06-10 2006-12-13 BRITISH TELECOMMUNICATIONS public limited company Mustervergleich
US8135210B2 (en) * 2005-07-28 2012-03-13 British Telecommunications Public Limited Company Image analysis relating to extracting three dimensional information from a two dimensional image
CN100553348C (zh) * 2005-10-13 2009-10-21 致茂电子股份有限公司 影像光学系统平面分辨率校正方法及其装置
EP1798961A1 (de) * 2005-12-19 2007-06-20 BRITISH TELECOMMUNICATIONS public limited company Fokussierungsverfahren
JP5100757B2 (ja) 2006-11-30 2012-12-19 キヤノン ユー.エス. ライフ サイエンシズ, インコーポレイテッド Dna分子の増幅および解離反応をモニタするためのシステムおよび方法
US20080195938A1 (en) * 2006-12-14 2008-08-14 Steven Tischer Media Content Alteration
CN101267493B (zh) * 2007-03-16 2011-01-19 富士通株式会社 透视变形文档图像的校正装置和校正方法
JP4966231B2 (ja) * 2008-03-13 2012-07-04 株式会社アイデンティファイ スタジオシステム
GB2465793A (en) 2008-11-28 2010-06-02 Sony Corp Estimating camera angle using extrapolated corner locations from a calibration pattern
JP5541031B2 (ja) 2010-09-16 2014-07-09 セイコーエプソン株式会社 プロジェクター、およびプロジェクターの制御方法
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
WO2015162910A1 (ja) * 2014-04-24 2015-10-29 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
US10110822B2 (en) 2015-06-09 2018-10-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera
US10965887B2 (en) * 2016-12-08 2021-03-30 Nir Eden Methods and systems for image layer separation
US10594995B2 (en) * 2016-12-13 2020-03-17 Buf Canada Inc. Image capture and display on a dome for chroma keying
US10304210B2 (en) * 2017-05-25 2019-05-28 GM Global Technology Operations LLC Method and apparatus for camera calibration
US11094083B2 (en) * 2019-01-25 2021-08-17 Adobe Inc. Utilizing a critical edge detection neural network and a geometric model to determine camera parameters from a single digital image

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2974190A (en) 1957-12-09 1961-03-07 Columbia Broadcasting Syst Inc Electronic matting apparatus
JPS4934385A (de) 1972-07-28 1974-03-29
US3848082A (en) * 1973-01-16 1974-11-12 Atlantic Res Corp System for transmitting and utilizing supplemental data via television systems
JPS5637586B2 (de) 1973-07-02 1981-09-01
US3973239A (en) 1973-10-17 1976-08-03 Hitachi, Ltd. Pattern preliminary processing system
JPS5723295B2 (de) 1973-12-28 1982-05-18
US4200890A (en) 1977-07-11 1980-04-29 Nippon Electric Company, Ltd. Digital video effects system employing a chroma-key tracking technique
GB2013448B (en) * 1978-01-30 1983-02-23 Quantel Ltd Measurement of chroma key area in television systems
US4394680A (en) 1980-04-01 1983-07-19 Matsushita Electric Industrial Co., Ltd. Color television signal processing apparatus
US4396939A (en) 1980-06-09 1983-08-02 Nippon Electric Co., Ltd. Chromakey effect apparatus
JPS5793788A (en) * 1980-12-03 1982-06-10 Nippon Hoso Kyokai <Nhk> Chroma-key device
CA1187166A (en) 1981-07-09 1985-05-14 Kaichi Yamamoto Digital chromakey apparatus
US4393394A (en) 1981-08-17 1983-07-12 Mccoy Reginald F H Television image positioning and combining system
JPS5846783A (ja) 1981-09-12 1983-03-18 Sony Corp クロマキ−装置
US4409611A (en) 1981-09-24 1983-10-11 Vlahos-Gottschalk Research Corp., (Now) Ultimatte Corp. Encoded signal color image compositing
US4566126A (en) 1982-04-30 1986-01-21 Fuji Electric Company, Ltd. Pattern discriminator
US4409418A (en) * 1982-07-07 1983-10-11 Phillips Petroleum Company Isomerization process
JPS5972285A (ja) 1982-10-18 1984-04-24 Nec Corp クロマキ−信号発生装置
JPS5992678A (ja) 1982-11-19 1984-05-28 Nec Corp キ−信号検出装置
US4547897A (en) 1983-02-01 1985-10-15 Honeywell Inc. Image processing for part inspection
JPS60194696A (ja) 1984-03-15 1985-10-03 Toshiba Corp デイジタルクロマキ−装置
NL8402541A (nl) * 1984-08-20 1986-03-17 Philips Nv Versterkerschakeling.
DE3704289A1 (de) 1987-02-12 1988-08-25 Broadcast Television Syst Verfahren zur ueberpruefung eines farbstanzsignal-decoders
DE3810328A1 (de) 1988-03-26 1989-10-05 Bosch Gmbh Robert Verfahren und schaltung zur kombination zweier fernsehbildsignale
GB8826880D0 (en) * 1988-11-17 1988-12-21 Dickson J W Vehicle control
US4979021A (en) 1989-11-30 1990-12-18 Thomas Milton L Optical chromakey field
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
CN1020986C (zh) * 1990-07-28 1993-05-26 大连理工大学 二次绕线机微机视觉监控系统
ES2136603T3 (es) 1991-07-19 1999-12-01 Princeton Video Image Inc Presentaciones televisivas con signos insertados, seleccionados.
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
GB9217098D0 (en) * 1992-08-12 1992-09-23 British Broadcasting Corp Derivation of studio camera position and motion from the camera image
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
IL108957A (en) 1994-03-14 1998-09-24 Scidel Technologies Ltd Video sequence imaging system
US5488675A (en) 1994-03-31 1996-01-30 David Sarnoff Research Center, Inc. Stabilizing estimate of location of target region inferred from tracked multiple landmark regions of a video image
IL109487A (en) 1994-04-29 1996-09-12 Orad Hi Tec Systems Ltd Chromakeying system
US5436672A (en) * 1994-05-27 1995-07-25 Symah Vision Video processing system for modifying a zone in successive images
US5892554A (en) * 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
GB9601101D0 (en) 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
US5930740A (en) * 1997-04-04 1999-07-27 Evans & Sutherland Computer Corporation Camera/lens calibration apparatus and method
US6122014A (en) * 1998-09-17 2000-09-19 Motorola, Inc. Modified chroma keyed technique for simple shape coding for digital video

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen
DE102021106488A1 (de) 2020-12-23 2022-06-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung
US12075182B2 (en) 2020-12-23 2024-08-27 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Background display device, background display system, recording system, camera system, digital camera and method of controlling a background display device

Also Published As

Publication number Publication date
BR9606555A (pt) 1998-12-15
GB2305050A (en) 1997-03-26
EP0848886B1 (de) 1999-03-24
ZA967588B (en) 1997-03-10
JPH11503588A (ja) 1999-03-26
DE69601880D1 (de) 1999-04-29
NO981010L (no) 1998-03-09
CN1104816C (zh) 2003-04-02
WO1997009830A1 (en) 1997-03-13
NO981010D0 (no) 1998-03-06
IL123372A0 (en) 1998-09-24
US6304298B1 (en) 2001-10-16
AU6935396A (en) 1997-03-27
ATE178180T1 (de) 1999-04-15
GB9518432D0 (en) 1995-11-08
CN1196151A (zh) 1998-10-14
IL123372A (en) 2002-08-14
TR199800397T2 (xx) 1999-09-21
PL325423A1 (en) 1998-07-20
EP0848886A1 (de) 1998-06-24
HUP9900176A2 (hu) 1999-04-28
US20010048483A1 (en) 2001-12-06

Similar Documents

Publication Publication Date Title
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE69506856T2 (de) Verbessertes chromakey-system
DE69226512T2 (de) Verfahren zur Bildverarbeitung
DE69915901T2 (de) Bildverarbeitungsgerät
DE69521739T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE69735488T2 (de) Verfahren und vorrichtung zum ausrichten von bildern
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
DE69223155T2 (de) Mischung von videosignalen unter benutzung eines pattern-keys
DE3689271T2 (de) Verfahren zur Bildanzeige.
DE69811050T2 (de) Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.
DE69432692T2 (de) Bildverarbeitungsvorrichtung und -verfahren.
DE69722378T2 (de) Verfahren und vorrichtung zur bearbeitung eines dreidimensionalen bildes mit hilfe der parallaxgeometrie von punktpaaren
DE69107267T2 (de) Verfahren und vorrichtung zur modifizierung einer zone sukzessiver bilder.
DE69922183T2 (de) Gesichtserkennung aus videobildern
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
DE112011103452T5 (de) Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung
DE112017007695T5 (de) Facettenaugen-bildaufnahmevorrichtung, bildverarbeitungsverfahren, programm und aufzeichnungsmedium
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE102010009291A1 (de) Verfahren und Vorrichtung für ein anatomie-adaptiertes pseudoholographisches Display
DE69331542T2 (de) Ein maschinelles verfahren zur kompensation von nichtlinearen bildwandlungen, z.b. zoom und pan, in einem videobildbewegungskompensierten system
EP3931798B1 (de) Schätzung der bewegung einer bildposition
DE69420819T2 (de) Bildverarbeitung
EP2893510B1 (de) Verfahren und bildverarbeitungsanlage zum entfernen eines visuellen objektes aus einem bild

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee