[go: up one dir, main page]

DE19853608C2 - Verfahren zur Darstellung eines autostereoskopischen Bildes - Google Patents

Verfahren zur Darstellung eines autostereoskopischen Bildes

Info

Publication number
DE19853608C2
DE19853608C2 DE19853608A DE19853608A DE19853608C2 DE 19853608 C2 DE19853608 C2 DE 19853608C2 DE 19853608 A DE19853608 A DE 19853608A DE 19853608 A DE19853608 A DE 19853608A DE 19853608 C2 DE19853608 C2 DE 19853608C2
Authority
DE
Germany
Prior art keywords
perspectives
cameras
image
pixels
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19853608A
Other languages
English (en)
Other versions
DE19853608A1 (de
Inventor
Siegbert Hentschke
Janine Graf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19853608A priority Critical patent/DE19853608C2/de
Priority to EP99119995A priority patent/EP0994630A3/de
Publication of DE19853608A1 publication Critical patent/DE19853608A1/de
Application granted granted Critical
Publication of DE19853608C2 publication Critical patent/DE19853608C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/225Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

Die Erfindung betrifft ein Verfahren nach dem Oberbegriff des Anspruchs 1 zur Dar­ stellung von autostereoskopischen Bildern.
Stereoskope Film- und Projektionsverfahren sind seit Jahren im Einsatz. Meist wird polarisiertes Licht (horizontal/vertikal, zirkular) benutzt, um das rechte und linke Bild zu trennen. Mit dem Fortschritt der LCD-Technik wurde es möglich, die Lichtdurchlässigkeit von Kristallen elektronisch zu steuern. Dies machte die Entwicklung der Shutter-Technik möglich, bei der synchron mit der Halbbildfrequenz abwechselnd das rechte und das linke Brillenglas lichtundurchlässig wird und synchron dazu rechte und linke Bilder sequentiell auf dem Bildschirm erscheinen.
Autostereoskope Projektionen werden mit Hilfe von Leinwänden mit Streifenlinsenrastern bei mehreren Projektionsrichtungen durchgeführt. Dabei wird der entsprechenden Richtung das richtige Perspektivbild zugeordnet [R. Börner: Autosteroscopic 3-D Imaging by Front and Rear Projection and on Flat Panel Displays, Displays Vol. 14. No. 1 (1993), pp. 39-46]. Ein fließender Übergang von einer Perspektive zur nächsten ist dabei kaum zu erreichen, da die Anzahl der Projektionsrichtungen nicht beliebig erhöht werden kann. Bei einem autostereoskopen Display, das für nur eine Person bestimmt ist, verwendet man nur zwei Perspektiven, die eine bestimmte Blickrichtung erfordern [EP 0 836 332 A1; R. Börner: Autostereoskope Rückprojektions- und Flachbildschirme, Fernseh- und Kinotechnik Bd. 48, Nr. 11 (1994). S. 594-600]. Die Darstellung eines stereoskopen Bildes wie in einem Hologramm wird dagegen unter Verwendung von "Head Tracking"- Sensoren erreicht, die einerseits einen leistungsstarken Echtzeitrechner zur Berechnung der passenden stereoskopen Bildperspektiven und andererseits einen autostereoskopen Schirm zur Nachführung des optischen Strahlenganges steuern [EP 0 836 332 A2; S. Hentschke: Personenadaptiver autostereoskoper Monitor - eine Option für den Fernseher? Fernseh- und Kinotechnische Zeitschrift Nr. 5/1996, S. 242-248; DE 39 21 061 A1]. Hierbei wird die genaue Kopfposition und -bewegung detektiert, und die zugehörigen Bilder werden gleichzeitig generiert. Darüberhinaus kommen auch aufwendige VR-Systeme (Virtual Reality) unter Benutzung gewöhnungsbedürftiger "Head Mounted Displays" zum Einsatz.
In der Medizintechnik sind Kernspinresonanz und Computertomographie die wichtigsten Einsatzgebiete für stereoskope 3D-Visualisierungen. Um bestimmte gesuchte Perspektiven zu berechnen, werden leistungsfähige Spezialrechner eingesetzt. Kombinierte Computervi­ sualisierungen und Echtzeitübertragungen von Endoskopen werden zu einem der wichtig­ sten neurochirurgischen Werkzeuge. Stereoskope Endoskope sind bereits im Einsatz. Eine elektronische Bewegungssteuerung über einen auf Infrarotbasis arbeitenden "Head Tracking Sensor" wird leicht zu kombinieren sein mit einem personenbezogenen auto­ stereoskopen Bildschirmsystem.
Neben den Shutter-Monitoren sind autostereoskope adaptive Monitore bekannt (DE 195 00 315 C1), die für die jeweilige Betrachterposition zwei Perspektiven, eine rechte und eine linke, auf dem Monitor-Display getrennt für das rechte und linke Auge darzustellen vermögen. Dies erfordert jedoch eine in Echtzeit zu tätigende Neuberechnung von Gegenstandsperspektiven, wenn sich der Benutzer bewegt.
Zur Darstellung autostereoskopischer Bilder sind weiterhin Vorrichtungen in Form von Stereo-Hologramm-Displays bekannt geworden (PCT WO 98/21 619), die mehrere elektronische Kameras, einen Computer, ein Belichtungsgerät oder einen Drucker, ein Rasterglas und eine hinter diesem montierbare, schwarz-weiße, Rasterpixel aufweisende Folie enthalten, wobei in jedes Rasterpixel nebeneinander eine Vielzahl von z. B. 128 Perspektiven geschrieben wird, wobei auch die Möglichkeit angedeutet ist, aus zwei oder mehr vorhandenen Perspektiven (durch Interpolation) weitere Perspektiven zu gewinnen. Dabei wird allerdings stillschweigend vorausgesetzt, daß die aufgenommenen Objekte bekannte Tiefenpositionen haben und sich bei der Aufnahme nicht überdecken. Wie bei Überdeckungen vorzugehen ist, kann weder diesem benannten Vorschlag noch dem weiteren, für Verfahren der eingangs bezeichneten Gattung einschlägigen Stand der Technik entnommen werden (z. B. US 5 696 596, US 5 697 006, US 5 455 689, JP-37 813 B2). Eine derartige natürliche dreidimensionale Darstellung von Objekten benötigt kein Head-Tracking System mehr und kann von mehreren Personen gleichzeitig zur autostereoskopen Darstellung genutzt werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Darstellung von autostereo­ skopischen Bildern vorzuschlagen, mit dem mit einfachen technischen und kostengünstigen Mitteln ein Objekt, insbesondere ein Portrait einer Person, mit einer Vielzahl von Perspektiven farb- und tiefengetreu dargestellt werden kann. Die dreidimensionale Information des Bildes soll wie in PCT WO 98/21 619 dargestellt und wahlweise auf einer schwarz-weißen, hochpräzisen Fotofilmschicht, auf einem herkömmlichen Filmmaterial oder auf einer normalen Folie gespeichert werden können.
Zur Lösung dieser Aufgabe dienen die kennzeichnenden Merkmale des Anspruchs 1.
In Erweiterung des bekannten Verfahrens (PCT WO 98/21 619) wird durch die Erfindung auch für eine Großdarstellung (z. B. 64 cm × 48 cm) eine preisgünstige schwarz-weiße Filmfolie verwendbar. Um die dreidimensionale Aufbereitung zu vereinfachen und auf wenige Objekte zu konzentrieren, hält ein Graphikcomputer vorbereitete dreidimensionale Umgebungen bzw. Hintergründe zur Auswahl bereit. Eine zu portraitierende Person wird von einem elektronischen Kamerasystem fotografiert. Die Daten werden zu einem Graphikcomputer geleitet, der diese Informationen auf das spezifische 3D Schwarzweiß­ format umrechnet und einer Belichtungsmaschine unmittelbar zuführt. Nach wenigen Minuten kann das Bild betrachtet und gegebenenfalls verändert aufgenommen und dargestellt werden. Das Verfahren arbeitet vorzugsweise mit einer Hintergrundbeleuch­ tung, aber auch eine normale diffuse Bestrahlung von vorne möglich.
Für die computergestützte tiefengetreue Berechnung eines Bildes benötigt man vor einem Gegenstand bis über einhundert verschiedene Ansichten aus unterschiedlichen Blickpositio­ nen. Die simultane Aufzeichnung von derartig vielen Bildern stellt dabei ein technisches Problem dar. Die dreidimensionale Aufzeichnung einer ruhenden Umgebung kann durch einen langsam und gleichmäßig bewegte Kamera vorgenommen werden, die alle paar Millimeter eine Aufnahme macht. Bei sich bewegenden Objekten versagt die sequentielle Aufzeichnung. Bei der fotographischen Aufnahme von einer Person oder von mehreren Personen muß man von Bewegungen ausgehen, so daß man auf die gleichzeitige Aufzeichnung unterschiedlicher Perspektiven nicht verzichten kann. Dieses Problem wird erfindungsgemäß vorzugsweise dadurch gelöst, daß eine geringe Anzahl von elektroni­ schen Kameras, beispielsweise zwei, vier oder acht, nebeneinander in gleichmäßigen Abständen angeordnet und synchron ausgelöst werden. Eine Person oder ein sich bewe­ gender Gegenstand wird dabei vor einem weißen oder gleichfarbigen Hintergrund dargestellt. Aus diesen wenigen Bildern berechnet dann ein Graphikcomputer mit einer schnellen Korrelationsanalyse alle anderen erforderlichen Zwischenansichten. Die dann mit Tiefenpositionen gekennzeichneten dreidimensionalen Bildpixel eines Objektes können in eine wunschgemäß ausgewählte ruhende Umgebung positionsgerecht gemischt werden.
Die Erfindung ermöglicht eine echte dreidimensionale Darstellung eines räumlichen Gegenstandes. Die 3D-Bilder selbst können auf handelsüblichen preisgünstigen Schwarz­ weißfilmen mit Größen über DIN A 3 untergebracht werden. Die in dem Graphikcompu­ ter abgelegten dreidimensionalen Hintergrundbilder sowie Objekte tragen alle Objektken­ nungen und können unterschiedlich in einem zusammengesetzten Bild positioniert werden. Es kann auch ein Gruppenbild vieler Personen vor einem bekannten Objekt tiefengetreu zusammengestellt werden. Bevor man einen Film belichtet, kann man sich ein solches Szenario auf einem personenadaptiven 3D-Monitor betrachten und Veränderungen in der Darstellung vornehmen.
Für Werbezwecke können auch Objekte mit bestimmten Bewegungseffekten aufgezeichnet werden: beispielsweise kann sich beim Vorübergehen ein Gesicht verändern oder ein Arm heben, oder es kann sich aus einer bestimmten Blickrichtung ein Fenster öffnen, etc. Dabei ist es durchaus denkbar, daß sich ein sehr großes Bild aus mehreren kleinen Teilbildern zusammensetzen läßt.
Auch Personen, denen eine normale Stereosicht verwehrt ist, weil beispielsweise ein Auge zu schwach sieht, können den 3D-Effekt hierbei wahrnehmen, indem sie ihre Position geringfügig horizontal variieren und hier die verschiedenen Perspektiven erkennen.
Das hauptsächliche Anwendungsgebiet für das erfindungsgemäße Verfahren sind 3D- Fotostudios, die mit einem System elektronischer Kameras, einen Graphikcomputer, einem personenadaptiven 3D-Monitor sowie mit einem Schwarzweißbelichtungsgerät ausgerüstet sind. Selbstverständlich kann diese technische Ausrüstung auch genutzt werden, um preisgünstige, große, zweidimensionale Farbbilder anzufertigen. Anstelle einer Linsenra­ sterscheibe könnte in diesem Fall ein billigeres Bildglas mit einer Farbmaske benutzt werden.
Ein weiteres interessantes Anwendungsgebiet ist die Radiologie in der Medizintechnik: schwer zu interpretierende zweidimensionale Röntgenbilder können durch dreidimensiona­ le ersetzt werden. Jeder Arzt, der heute Röntgenbilder interpretiert, braucht nur zusätzlich eine Linsenrasterscheibe mit Farbmaske, wenn er auf eine 3D-Röntgenstation zurückgreift. Das gleiche gilt für die Kernspintomographie.
Setzt man mehrere Teilbilder zu einem Großbild zusammen, so wird in der Architektur ein besonders interessantes Anwendungsgebiet erschlossen: anstatt eines Modells kann ein 3D-Großbild präsentiert werden.
Weitere vorteilhafte Merkmale der Erfindung ergeben sich aus den Unteransprüchen.
Die Erfindung wird nachfolgend in Verbindung mit den beiliegenden Zeichnungen an Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 schematisch eine 3D-Portraitierung mit elektronischen Kameras, einem Graphik­ computer und einem Belichtungsgerät und die nachfolgende Wiedergabe;
Fig. 2 ein Stereofarbhologramm-Sichtgerät für 3D-Fotos, z. B. für die Kernspin- und Röntgentomographie;
Fig. 3 die Darstellung von Objektpositionen in Kamera-Bildern;
Fig. 4 die Darstellung von Objektpositionen in Bildern von kreisförmig angeordneten Kameras;
Fig. 5 die Darstellung der verschiedenen Perspektiven in einem Hologrammbild;
Fig. 6 die Darstellung der Interpolation fehlender Perspektiven;
Fig. 7 die Darstellung eines relativen Koordinatensystems für die Kamera und für den Betrachter; und
Fig. 8 eine Zylinderlinsen-Rasterscheibe in auseinandergezogener Darstellung zusammen mit einem positionsgetreu auflegbaren 3D-Foto.
Ausführliche Beschreibung des 3D-Portraitierungsverfahrens A) Präzisionsmontage und Beschreibung des Filmes
Um auch ein größeres 3D-Bild, z. B. 60 cm × 40 cm, preisgünstig halten zu können, ist es wichtig, daß man für den Schwarzweißfilm Standardmaterial verwenden kann. Dabei taucht das Problem auf, daß es ohne Zusatzmaß­ nahmen unmöglich ist, auf eine solche große Fläche den Film µm genau auf die Farb- und Helligkeitsmasken aufzubringen. Beispielsweise müßte Filmma­ terial auf ein Glas dieser Größe aufgebracht werden und danach belichtet und entwickelt werden, damit es µm genau auf die vordere Glasscheibe mit dem Linsenraster und der aufgesputterten Farb- und Helligkeitsmaske aufgebracht werden kann. Das bei der Verwendung von Standardfolien auftretende Montageproblem ist auch in der Basisanmeldung "HOLDISP" nicht gelöst. Deshalb wird im Folgenden ein ergänzender Vorschlag be­ schrieben, wie man dennoch Standard-Filmmaterial, das z. B. auch für Röntgenfotos verwendet wird, einsetzen kann.
Fig. 8 veranschaulicht die erforderlichen Maßnahmen. Man kann davon ausgehen, daß eine Zylinderlinsen-Rasterscheibe vorhanden ist mit vertikalen Zylinderlinsen (1) im Pitchabstand von ca. 0,5 mm der Glasscheibe, auf die die Linsen aufgebracht sind (2) und mit einer µm genau aufgesputterten Farb- und Helligkeitsmaske. Die Farb- und Helligkeitsmaske besteht aus horizontalen, sich wiederholenden Streifen der Farben schwarz, rot, grün, blau. Jeder einzelne Farbstreifen hat eine Breite von ca. 100 µm. Jeder rote, grüne oder blaue Farbstreifen ist unterteilt in je drei weitere Streifen der Breite 25 µm, 50 µm 25 µm. Der mittlere, 50 µm breite Streifen enthält keine weitere Helligkeitsfilterung zur Absorbierung des Lichts, während die Streifen (5) und (6) zusätzlich geschwärzt sind, so daß Licht absorbiert wird. Dabei absorbiert der Streifen (5) 90% und der Streifen (6) 98%. Der aufgelegte Film (8) enthält die eigentliche Bildinformation mit kleinen qua­ dratischen schwarzen oder durchsichtigen Flächen in der Größe von 5 µm × 5 µm. Das bedeutet, daß auf einem Streifen von 100 µm 20 schwarz- weiße Substreifen Platz finden. Der aufzubringende Film (8) wird nun so belichtet, daß bei den Übergängen von beispielsweise rot auf grün oder von stärker absorbierenden auf weniger absorbierenden Streifen jeweils ein schwarz bleibender Streifen auf dem Film symmetrisch zu den Übergängen aufgebracht wird, während die anderen Pixel zur Codierung frei sind. Auf den Streifen (5) und (6) können dann übereinander noch 4 µ-Pixel zur Codierung benutzt werden, während auf dem breiten mittleren Streifen von 50 µm 9 übereinanderliegende µ-Pixel für die schwarz-weiß Codierung benutzt werden können. Im Gegensatz zu dem ursprünglichen Verfahren in "HOLDISP" wird hier ein breiter Streifen von 50 µm verwendet, in dem 9 Unterpixel zur Codierung nebeneinander benutzt werden können. Dies hat den Vorteil, daß insgesamt bei der hellsten Bildinformation weniger als 50 % des Lichtes verloren gehen, d. h. durch die Helligkeitsfilterung absorbiert werden. In dem mittleren Streifen, der keine Helligkeit absorbiert, können folgende Helligkeitswerte codiert werden 0, 25, 50, 75, 100, 125, 150, 175, 200, 225. In dem Streifen (5) können dann folgende 5 Helligkeits­ werte, die den ersten additiv überlagert werden, codiert werden: 0, 5, 10, 15, 20. Und im Streifen (6) schließlich die Werte 0, 1, 2, 3, 4, die additiv überlagert werden können. Damit sind insgesamt 250 verschiedene Hellig­ keitsstufen codierbar.
Der aufzubringende Film darf nun auf Grund der überdeckten Übergänge in vertikaler Richtung einen Versatz um maximal plus/minus 2,5 µm aufweisen, ohne daß eine Veränderung in der Qualität des Bildes auftritt.
Der im Hologramm-Display (HOLDISP) vorgesehene schwarze Streifen bietet die Möglichkeit zur µm genauen Positionierung des Filmes gegenüber der Scheibe. Es wird nun eine Glasscheibe verwendet, die an den vorgesehenen schwarzen Streifen kleine Positionierungszapfen (4) mit einem Durchmesser von ungefähr 50 µm und einem Vorsprung in der Dicke des Filmmaterials von ca. 20 µm haben. In den Film, bzw. der Folie werden vor dem Belichten bzw. Beschreiben ebenfalls diese Positionierungslöcher gestanzt in µm genauem Maß. Der Belichter oder Drucker muß nun ebenfalls in den gleichen Abständen diese Positionierungszapfen aufweisen, damit der Film groß­ flächig µm genau beschrieben werden kann.
Die Positionierungszapfen (4) bzw. (11) sind wie im Schnitt C gezeigt konisch, damit sich das Filmmaterial leichter in die passende Stelle drücken läßt. Es könnte nun vorkommen, daß der aufgedrückte Film in den Farb­ streifen RGB zwischen Glas und Film Luftblasen übrigbehält und an anderen Stellen nicht aufliegt. Und auf diese Weise könnten später Newton-Ringe entstehen. Deshalb wird hier das vorgesehene Glas (2) so ausgeführt, daß in den Bereichen der Farbstreifen RGB, also in einer Breite von ca. 300 µm das Glas eine Vertiefung von ca. 3 bis 5 µm aufweist, so daß zwischen Glas und Film in dem Bereich der Farbstreifen ein Luftkissen (10) entsteht, über das der Film gespannt wird.
Um die Helligkeitswerte in den 3 Unterstreifen des Farbstreifens zu codieren gibt es mehrere Möglichkeiten. Verwendet man eine ungünstige Codierung, z. B. übereinander Pixel transparent/schwarz, transparent/schwarz etc., so kann dies bei Verwendung von kohärentem Licht zu störenden Interferen­ zen führen. Deshalb wird in den einzelnen Helligkeitssubstreifen eine Codie­ rung derart gewählt, daß bei steigender Helligkeit die transparenten Subpixel übereinander so angeordnet werden, daß bei der kleinsten Helligkeitsstufe in der Mitte eines Streifens auf transparent geschaltet begonnen wird und bei steigender Helligkeit um diese herum direkt darüber und dann darunter durchgeschaltete transparente Pixel angeordnet werden, so daß kein Wech­ sel zwischen transparent und schwarz entsteht. Dies führt, wie in Fig. 8B gezeigt, bei fallender Helligkeit in horizontaler Richtung zu einem Keil in der Codiermaske.
Diese hier beschriebenen Positionierungs-Maßnahmen führen dazu, daß ein dreidimensionales Bild mit hoher Qualität entsteht, das für einen Betrachter in der vorgesehenen Abstandsposition 50 verschiedene Stereobilder bietet mit voller Fotoqualität. Voraussetzung hierfür ist, daß dieses Bild von hinten gleichmäßig beleuchtet wird, wobei man natürlich auch auf die Erfahrung bei TFT Flachbildschirmen zurückgreifen kann.
B) BESCHREIBUNG DES PORTRAITIERUNGSVERFAHRENS
Ermittlung fehlender Zwischenperspektiven aus zwei vorhandenen Perspekti­ ven: Ein hier beschriebenes 3D-Bild setzt sich im Normalfall aus 128 Einzel­ perspektiven zusammen. Diese Zahl entspricht dann auch der Anzahl dar­ stellbarer Tiefenpositionen. Diese müßte für bewegte Objekte synchron von 128 Kameras aufgezeichnet werden. Bei einfachen Objekten könnte man mit weniger aufgezeichneten Perspektiven auskommen, wenn Zwischenper­ spektiven aus den vorhandenen berechnet werden. Dies führt jedoch bei einer drastischen Reduktion auf nur 4 oder 8 aufgezeichnete Perspektiven auf erhebliche Probleme, da in der Regel nicht definierte verdeckte Regionen fehlen. Auch die Rekonstruktion von Tiefenpositionen aus zwei oder mehr Bildern aus unterschiedlichen Richtungen per Korrelation ist in den meisten Fällen nicht eindeutig möglich, wenn sich ähnliche Texturen oder kleine Formen wiederholen. Wie man dieses Problem bei 3D-Portraitbildern mit detailreichem Hintergrund löst, wird im Folgenden beschrieben.
Durch folgende Einzelmaßnahmen wird erreicht, daß ein 3D-Portrait in detailreicher Umgebung so gut wie vollständig aus wenigen 2dimensionalen Bildern aus bestimmten unterschiedlichen Richtungen rekonstruiert werden kann.
  • 1. Das zu portraitierende Objekt wird in einem genau vordefinierten be­ grenzten Raum positioniert.
  • 2. Zwei, vier oder mehr Kameras werden um das zu portraitierende Objekt herum genau reproduzierbar aufgestellt vor einem bekannten, vorher aufge­ zeichneten Hintergrund oder vor einem gleichfarbigen (blauen) Hinter­ grund mit einem Eichmuster, vgl. Fig. 3 und Fig. 4.
  • 3. Mehrere auf einem Bild zu portraitierende Objekte werden nacheinander aufgezeichnet.
  • 4. Die Pixel auf den aufgezeichneten zweidimensionalen Perspektivbildern werden unter Benutzung von a priori-Informationen über Grobform und Raumposition eines Objektes die möglichst genauen Tiefenpositionen der einzelnen Pixel ermittelt. Die Tiefenpositionswerte werden zu den RGB Werten als weiteres Wort zu den einzelnen Pixeln der Datei abgespeichert.
  • 5. Die jeweils zwischen zwei Kamerapositionen fehlenden Perspektiven werden aus den beiden Randbildern mittels der Tiefenpositionskennzeich­ nungen der einzelnen Pixel für die Zwischenperspektiven interpoliert und in die entsprechenden Dateiplätze eingetragen bzw. hinzugefügt. Eventuell unterschiedliche Farbwerte des gleichen Objektpunktes aus unterschiedlichen Richtungen werden für die Zwischenwerte linear interpoliert.
  • 6. Ein detailreiches dreidimensionales Umgebungsbild wird entweder per Computer erzeugt, wobei jedes Pixel jeder Perspektive mit der Tiefenposi­ tion gekennzeichnet ist, oder ein natürliches Umgebungsbild wird mit einer bewegten Kamera aus den entsprechenden Perspektiven nacheinander aufgezeichnet, so daß 128 oder mehr Perspektiven verfügbar sind, aus denen Tiefenangaben für alle Pixel ermittelt werden können. Dabei werden nicht eindeutig gefundene Tiefenpositionen gekennzeichnet und durch eine Sonderprozedur nachträglich festgelegt.
  • 7. Die 3D-Bilder eines Objekts und der Umgebung, bestehend aus 128 Per­ spektivbildern, in denen jedes Pixel mit einer Tiefenangabe gekennzeichnet ist, können nun ansichtengetreu überlagert werden, indem bei jedem Pixel dasjenige mit der geringeren Tiefenposition ausgewählt wird. Bei teiltrans­ parenten Objekten, die entsprechend gekennzeichnet sein müssen, ist das hintere mit einem gewissen Gewicht zu berücksichtigen.
  • 8. Sollen mehrere Objekte bzw. Positionen von 3D Bildern tiefengetreu an bestimmten Raumpositionen dargestellt werden auf einem Bild, so können die Raumpositionen der einzelnen Objekte mit einer 3D Mouse verschoben auf einem Monitor angezeigt und fixiert abgespeichert werden.
  • 9. Soll ein Objekt ringsherum aufgezeichnet werden, so wird der in Bild 4 gezeigte Teilkreis von Kameras fortgesetzt zu einem Kreis. Alle Kameras nehmen dann zwei Bilder auf, eins mit Objekt in der Mitte und eins ohne Objekt in der Mitte. Dadurch kann die nicht zum Objekt gehörende Umge­ bung nachher aus dem Bild wieder entfernt werden.
  • 10. Die Tiefenpositionen eines Pixels im Raum wird aus zwei benachbarten Perspektiven durch Minimieren einer Umgebungsnorm beim horizontalen Verschieben von Pixel zu Pixel gefunden. Die Norm besteht dabei aus der Summe der Absolutbeträge von Differenzen von Pixeln aus dem einen Bild mit Pixeln aus der Nachbarperspektive, die um einen bestimmten Betrag horizontal verlagert sind. Dort, wo die Umgebung des Punktes des einen Bildes sich am besten deckt mit der Umgebung des Punktes aus dem ande­ ren Bild, ergibt sich die horizontale Verschiebung, die dann korrespondiert mit der Tiefenposition. Dadurch, daß die Grobposition des Objektes bekannt ist, kann die Minimierung mit einer erwarteten Verschiebung gestartet werden. Berücksichtigt werden bei der Minimierung auch variabel gewichte­ te Umgebungspunkte.
Berechnung der Tiefenpositionen aus zwei Bildern
Es werde angenommen, daß ein bestimmter Objektpunkt auf zwei Bilden benachbarter Kameras eindeutig als Pixel identifiziert wurde. Sind dann die Kamerapositionen einschließlich ihrer Richtungen genau bekannt, so kann aus dem horizontalen Versatz dieser Pixel auf den beiden Bildern die Tiefen­ position dieses Punktes berechnet werden. Die Tiefenposition wird im Folgenden geometrisch bestimmt. Hierfür verwenden wir ein relatives xyz- Koordinatensystem und ein lokales uv-Koordinatensystem, wie sie in Fig. 7 gezeigt sind. Die relativen Koordinaten sind so angebracht, daß der Ur­ sprung in dem Punkt liegt, un dem sich die Strahlen von den Objektpunkten aus dieser Umgebung kreuzen. Die uv-Koordinaten liegen auf der Bildebene und sind in negative xy-Richtungen orientiert. Die uv-Bildebene liegt dabei parallel zur xy-Ebene an der Stelle z = ZK. Ein sichtbarer Objektpunkt mit den Koordinaten (X1, Y1, Z1) erscheint dann auf dem Bild an der Stelle
(U1, V1) = (X1, Y1).ZK/Z1 (1)
Nun seien zwei Kameras K1, K2 gegeben mit den lokalen Koordinaten u1, v1 bzw. u2, v2, deren Strahlenkreuzungspunkte auf der x-Achse an den Stellen XK1 = -DK/2 und XK2 = +DK/2 liegen. Die Bildebenen mögen wieder parallel zur xy-Ebene angeordnet sein, im Abstand ZK. Dann erscheint der identifizierte Bildpunkt auf den Bildern an den Stellen
(U1, V1) = (X1 + -DK/2, Y1).AK/Z1 (2) bzw.
(U2, V2) = (X1 - -DK/2, Y1).AK/Z1 (3).
Dabei ist ZK = -AK der Abstand der Bildebene vom Kreuzungspunkt. In der Praxis muß später berücksichtigt werden, daß die Auflösung der Bilder nur endlich ist, z. B. 1280 oder 2560 Pixel horizontal beträgt. Es muß also in Betracht gezogen werden, daß jeder diskrete Wert, wie U1, U2, auf Grund der Quantisierung mit gewissen Toleranzen versehen werden muß.
Da die Parameterwerte für die Ein- und Aufstellungen der Kameras bekannt sind, folgt aus der Differenz der obigen Gleichungen die Angabe für die Tiefenposition.
Z1 = DK.AK/(U1 - U2) (4)
Um eine bessere Ausnutzung des Filmes in der Kamera zu erreichen, ist es vorteilhaft, die Kameras um den Mittelpunkt des vorgesehenen Objektzen­ trums anzuordnen, wie es Fig. 4 zeigt. In diesem Falle würde man Polarkoor­ dinaten bevorzugen, für die folgende Beziehung gilt:
x = r.cos(ϕ).sin(δ), 0 < ϕ < 2π
y = r.sin(ϕ).sin(δ), 0 < δ < +π
z = r.cos(δ) (5)
Die inverse Transformation lautet dann
r = √(x2 + y2 + z2) (6)
ϕ = arctan(y/x) (7)
δ = arctan[z/√(x2 + y2)] (8)
Die kreisförmig angeordneten Kameras seien auf das Objektzentrum gerich­ tet mit den Koordinaten
MO = (xo, yo, zo) = (0, 0, RO) (9)
Die Kameras haben also alle einen Abstand RO; vom Objektzentrum OZ und seien von diesem aus, in negativer z-Richtung betrachtet, an den Winkeln Ψi positioniert, wobei je zwei benachbarte eine Winkeldifferenz ΔK = Ψi - Ψi-1 einschließen mögen (vgl. Fig. 4).
Die lokalen Koordinaten der i-ten Kamera, die auf das Objektzentrum OZ ausgerichtet ist, seien mit ui, vi bezeichnet In den relativen Koordinatensy­ stemen der i-ten Kamera Ki kann zu einem identifizierten Objektpunkt mit den Koordinaten Ui0, Vi0 der zugehörigen relativen Raumwinkel berechnet werden.
In Bezug auf die i.te Kamera ergibt sich folgender Raumwinkel
ϕi0 = arctan(Vi0/Ui0) (10)
δi0 = arctan[√(Ui0 2 + Vi0 2)/AK] (11)
Die Projektion des Raumwinkels auf die Ebene y = 0 liefert den Winkel zur z- Achse
δi0z = arctan[Ui0/AK] (12)
Der Schnittpunkt der Projektionen zweier Raumwinkel, von zwei benach­ barten Kameras Ki, Ki-1 aus betrachtet, führt dann zur Tiefenposition des identifizierten Objektpunktes.
Der Strahlenkreuzungspunkt der i-ten Kamera in der xz-Ebene ist dann in dem ursprünglichen xyz-Koordinatensystem durch folgende Koordinaten gegeben
XiK = ROK.sin(Ψi) (12)
ZiK = ROK.(1 - cos(Ψi)) (13).
Die i-te projizierte Gerade durch den zugehörigen Kamerakreuzungspunkt besitzt dann folgende Gleichung in der xz-Ebene:
x - XiK = (z - ZiK).tan(δi0z.ΨiK) (14):
Die Differenz aus zwei solchen benachbarten Gleichungen liefert den Schnittpunkt z = Z0, der gleichzeitig die Tiefenposition Z0 des identifizierten Objektpunktes angibt.
XiK - XIK - ZiK.tan(δi0z.ΨiK) + ZIK.tan(δI0z.ΨIK) = ZO.[tan(δi0z.ΨiK) - tan(δI0z.ΨIK)]
für I = i - 1.
Die Division der Gleichung durch den Faktor bei ZO auf der rechten Seite dieser Gleichung führt auf die Tiefenposition ZO des identifizierten Punktes O. Kann in allen perspektivischen Bildern derselbe Objektpunkt identifiziert werden, so müssen aus den benachbarten Perspektiven die gleichen Tiefen­ positionen sich ergeben - bis auf eine zulässige Quantisierungsunsicherheit. Zur Kontrolle sollte die Tiefenposition eines identifizierten Objektpunktes nicht nur aus den beiden Perspektiven i und i - 1 ermittelt werden, sondern man sollte auch aus mehr Perspektiven wie I = i + 1, I = i - 2u, m. die Tiefen­ positionen von Punkten ermitteln um ggf. dann gültige Mittelwerte daraus zu ermitteln. Diejenigen Objektpunkte, die mindestens in zwei verschiedenen perspektivischen Bildern eindeutig identifiziert werden konnten, sind somit mit genauen Tiefenpositionen versehbar. Das gilt auch für eine Anordnung, in der die Kameras um das ganze Objekt herum angeordnet sind.
Hat eine Objektregion in einer gewissen Umgebung gleichmäßige Helligkeit und Farbe, so können Punkte dieser Region auf benachbarten Bildern nicht eindeutig identifiziert werden. In diesen Fällen muß eine ganze Umgebung zur Findung der Tiefenposition herangezogen werden. Dies wird im Folgen­ den näher erläutert. Die Größe einer zu berücksichtigen Umgebung soll mittels eines Parameters a einstellbar sein. Für die Gewichtung der Umge­ bung wird eine Exponentialfunktion herangezogen, wie sie auch für eine optische Filterung gilt.
Die Farbwerte auf den Pixeln der Bilder der Kameras sind nicht kontinuierlich abgespeichert, sondern quantisiert und über die lokalen Koordinaten u, v digitalisiert mit Pixelzahlen in der horizontalen Richtung in der Regel von 1280 und in der vertikalen von 1024. Das bedeutet, die relative horizontale Koordinate ui der i-ten Kamera hat ganzzahlige Werte zwischen -640 und +629 und die vertikale Koordinate vi liegt zwischen -512 und +511. Die horizontalen Koordinatenpunkte mögen gekennzeichnet werden durch die ganzzahligen Indexwerte m und die vertikalen Koordinaten v, durch die Indexwerte n, m bezeichnet dann also Spaltenpositionen einer Matrix und n Zeilenpositionen. Wenn die horizontalen Koordinaten zwischen -umax und +umax variieren und die vertikalen zwischen -vmax und +vmax, dann kann die Quantisierung durch die Integerfunktion ausgedrückt werden.
m = int(640.u/umax) (16) und
n = int(612.v/vmax) (17).
Die Farben R, G, B sind ebenfalls quantisiert und zwar in 256 Stufen, d. h. sie haben ganzzahlige Werte zwischen 0 und 255. Ein quantisierter Farbwert in der i-ten Kamera möge bezeichnet werden mit Fi. Um die Farben R, G, B an den Pixel n, m mit zu berücksichtigen, werden die Pixelwerte gekennzeichnet durch die Funktion Fi(f, m, n). Dabei stehe f = 0 für R (Rot), f = 1 für G (Grün) und f = 2 für B (Blau).
In der Regel wird es genügen, eine Umgebung von ±10 Punkten in beiden Richtungen zu berücksichtigen. Dann lautet die Identifizierungsfunktion zwi­ schen zwei Bildern benachbarter Kameras i und I
Derjenige ganzzahlige λ-Wert, bei dem diese Summe ein Minimum ist, liefert die Differenz in der u-Koordinate, die dann auf die Tiefenposition führt. Der Bereich, den λ durchläuft, wird durch die Begrenzung des Portraitierungs­ raumes bestimmt. Die obige Differenzbildung verschiedener Pixel ist für kleine Werte von n richtig und müßte für größere n-Werte geringfügig korrigiert werden. Punkte vor und hinter dem Objektzentrum in unterschiedli­ chen Bildern können auf unterschiedliche v-Koordinaten fallen. Der zweite Term in der Differenz ist dann durch einen ganzzahligen Indexwert ρ zu ergänzen. Dieser Wert ρ ist abhängt von n, d. h. der Höhe im Bild, und der Kamera-Differenz i - I: ρ = ρ(n, i - I). Auf eine genaue Berechnung der zugehöri­ gen ganzzahligen Werte kann an dieser Stelle verzichtet werden, da es vorteilhaft ist, diese Wert in einer Tabelle abzulegen und bei Bedarf auf­ zurufen. Der Term lautet also FI(f, m - µ - λ, n - ν - ρ).
Die wesentlichen Bildinformationen, aus denen die Tiefenpositionen rekon­ struiert werden, liegen in den Rändern von Figuren, d. h. bei Farb- und Hellig­ keitsänderungen im Bild. Deshalb kann es vorteilhaft sein, die Bilder vor der Ermittlung der Tiefenpositionen zu filtern. Ein solcher Filteroperator, der nicht benötigte Bildinhalte wegfiltert, wäre ein Kantenfilter, der vertikale Kanten anhebt und gleichmäßige Helligkeitsregionen auf einen konstanten Wert setzt. Dadurch kann erreicht werden, daß das oben angegebene zu ermit­ telnde Minimum über λ ausgeprägter ist. Auf eine genauere Beschreibung der Kantenfilterung braucht hier nicht eingegangen zu werden, da sie zu den Standartmethoden in der digitalen Bildverarbeitung gehört.
Das Hintergrundbild, das später mit einem Portraitbild tiefengetreu vermischt werden soll, enthält ggf. zahlreiche Details in unterschiedlichen Tiefen, die u. U. aus Nachbarbildern nicht eindeutig rekonstruierbar sind. Man kann aber davon ausgehen, daß in diesem Fall alle Perspektiven von einer Kamera auf­ genommen wurden, die sich horizontal und geradlinig bewegt hat. Es brau­ chen dann keine Zwischenperspektiven rekonstruiert werden. Dennoch müssen für alle Pixel die Tiefenpositionen ermittelt und hinzugefügt werden, damit eine tiefengetreue Vermischung mit anderen Bildern möglich ist. Da aber eine ganze Sequenz benachbarter Bilder vorhanden ist, ist es möglich, über mehrere Perspektiven hinweg eine Bewegung von Konturen zu detek­ tieren. Aus der über eine gewisse Anzahl benachbarter Bildern ermittelten Geschwindigkeit kann dann unmittelbar auf die Tiefenposition dieser Kontur geschlossen werden. Bleibt dennoch eine Region übrig, in der sich keine Konturen befinden und gleichbleibende Farben auftreten und in der auch keine Bewegung erkennbar ist, so muß man zusätzlich die Annahme treffen, daß eine Fläche, die von einer sich bewegenden Kontur umhüllt wird, sich genauso schnell bewegt wie die Kontur, d. h. sich in der gleichen Tiefenposi­ tion befindet.
Auf diese Weise wird es dann möglich, daß jedes RGB-Pixel in jeder Per­ spektive mit einer Tiefenangabe gekennzeichnet werden kann. Darüberhin­ aus wird es per Software-Tools möglich sein, auch Tiefenpositionen von Gegenständen zu verändern. Legt man Schnitte durch die so erfaßte dreidi­ mensionale Landschaft, so läßt sich auf diese Weise testen, ob die Ergeb­ nisse mit den gewünschten oder tatsächlichen übereinstimmen.
Interpolation von Zwischenperspektiven
Objektpunkte oder Objektregionen, die von zwei Kamerapositionen aus ein­ deutig identifiziert werden konnten in der Tiefenposition, können auf Zwi­ schenperspektiven dargestellt werden durch die im Folgenden beschriebene Interpolation. Wie in Fig. 6 gezeigt, sei ein Punkt des Objektes eindeutig identifiziert auf den beiden Kameras K1 und K2, deren lokale Koordinaten u1 und v1 bzw. u2 und v2 eine Ebene aufspannen, die parallel zu der Bildebene ist. Darüberhinaus werde ohne Beschränkung der Allgemeinheit angenom­ men, daß das Raster in den Koordinaten u1 bzw u2 übereinstimmt mit dem Raster bzw. dem Pitchabstand der Linsenrasterscheibe. Es sind also alle 1280 Pixel auf den lokalen Koordinaten u1 und u2 wiederzufinden. Ist die von u1 und u2 aufgespannte Ebene nicht parallel zu der Ebene der Linsenra­ sterscheibe, so muß ein linearer Streckungsfaktor berücksichtigt werden. Es werde nun angenommen, daß in der Kamera 1 ein Bild der Perspektive 1 mit der richtigen Rasterung aufgezeichnet ist. Das Gleiche werde angenommen für die Perspektive 6 des Objektes, die in der Kamera 2 in der richtigen Rasterung aufgezeichnet sei. Dann können die RGB Werte inklusive der ermittelten Tiefenpositionen in die Perspektiven 1 bzw 6 eingetragen wer­ den, die in der Regel 1280 Pixel horizontal enthalten und 128 Perspektiven je Pixel. Die Objekte im Raum sind also jetzt abzubilden auf die Bildebene, die sich im Brennpunkt der Zylinderlinsen befindet und der Ebene z = ZB sich befindet. Ist ein identifizierter Objektpunkt O1 in den Perspektiven P1 und P6 der Kameras K1 und K2 bekannt mit der zugehörigen Tiefenposition und den Farbwerten, so kann die in der Ebene z = 0 gezeigte Rasterung für die Perspektiven P2, P3, P4 und P5 durchlaufen werden. Es können Strahlen zu dem Objektpunkt u1 gezogen werden und die Durchstoßpunkte durch die Bildebene ZB genau berechnet werden. Das auf der Bildebene ZB angelegte Pitchraster kennzeichnet die Zugehörigkeit zu bestimmten Pixeln. Es kann nun vorkommen, daß die Strahlen von benachbarten Perspektiven zu dem Objektpunkt in die gleiche Pixelspalte fallen. Dann sind diese auch in die zugehörigen Perspektiven der gleichen Pixelspalte einzutragen. Stehen dort an dieser Position bereits Werte mit der gleichen Tiefenposition, so wird hieraus ein Mittelwert gebildet. Ist an einer Stelle bereits ein Objektpunkt mit einer größeren Tiefenposition eingetragen, so wird dieser überschrieben. Ist ein Objektpunkt eingetragen mit einer kleineren Tiefenposition, so wird keine Eintragung vorgenommen. Hat der gleiche identifizierte Objektpunkt O1 in der Kamera 1 einen etwas anderen Farbwert als in der Kamera 2, so werden diese Farbwerte von der Perspektive 1 bis 6 linear interpoliert. Wenn die Rasterung für die Perspektiven fein genug ist und die Bildobjekte sich in der richtigen Position befinden, so wird beim Durchlaufen der ver­ schiedenen Perspektiven kein Pixel in den Zwischenpositionen ausgelassen. Befindet sich jedoch ein Objektpunkt vor der Scheibe, so kann es vorkom­ men, daß die Strahlen durch bestimmte Pixel gehen und dazwischen einige ausgelassen werden. In diesem Falle ist es erforderlich, daß die ausgelasse­ nen Pixelpunkte Eintragungen bekommen mit den gleichen Werten, den gleichen Tiefenpositionen und den gleichen Perspektiven wie sie in den direkt benachbarten Pixelspalten eingetragen sind. Sind nun alle identifizier­ ten Objektpunkte durchlaufen, so sind in sämtlichen Pixeln der Bildebene (1280 × 1024) 128 verschiedene RGB Werte mit Tiefenpositionen eingetra­ gen.
So wie die horizontalen und vertikalen Koordinaten des Bildes quantisiert sind, ist es auch sinnvoll, die Tiefenpositionen zu quantisieren. Wählt man beispielsweise für die Kennzeichnung der Tiefenangaben eine 12 bit genaue Quantisierung, so sind zu unterscheiden Tiefenpositionen zwischen 0 und 4095; dabei ist 0 die Position der Kamera bzw. des später betrachtenden Auges und die größte Position die gewählte maximale Tiefenposition, beispielsweise 10 m. Bei der Eintragung der Objektpunkte in die Bildebene, d. h. in die verschiedenen Perspektiven aller Pixel geht man aus von einer Anfangseintragung, bei der in jeder Perspektive jeden Pixels die größtmögli­ che Tiefenposition eingetragen ist, die von jedem anderen vorkommenden Objekt einer geringeren Tiefenposition überschrieben werden kann. Auf diese Art und Weise erhält man für ein Portraitbild alle gewünschten Eintragungen in die Perspektiven. Ist eine Rundherum-Portraitierung vorgese­ hen, so muß man zwischen verschiedenen Darstellungsebenen unterschei­ den und nicht parallele Bildebenen und Kameraebenen umrechnen.
Auf Erweiterungen dieses Verfahrens wie es beispielsweise für teiltrans­ parente Objekte auftritt, soll an dieser Stelle nicht eingegangen werden. Es würde dann erforderlich, daß bei einem Pixel bei der gleichen Perspektive mehrere Eintragungen und Farbwertpositionen vorgesehen werden müßten.
Ein System mit festem Abstand von zwei Kameras hat den Vorteil, daß man leicht bewegte Szenen aufzeichnen kann, bei denen jeweils immer die beiden Perspektiven gleichzeitig aufgenommen werden, die die Augen später auch sehen. Die dicht nebeneinander liegenden Perspektiven können dann unter­ schiedlichen Zeitschlitzen angehören, aber die Augen des Betrachters sehen zeitsynchrone Aufnahmen. Bei geringfügigen seitlichen Bewegungen des Be­ trachters können auch leichte Bewegungen eines Gegenstandes wahrge­ nommen werden. Beispielsweise kann ein Portrait, wird das Bild von links betrachtet, einen ernsten Gesichtsausdruck aufweisen und beim Betrachten von rechts einen freundlichen. Auch zufällige Bewegungen wie bei­ spielsweise Augenzwinkern wirken dann nicht störend. Hingegen würde es stören, wenn das linke Auge des Betrachters von einer bestimmten Position ein geschlossenes Auge des Portraits sehen würde und das rechte ein offenes. Natürlich ist hier der richtige gültige Abstand des Betrachters von der Oberfläche des Rasterbildes einzuhalten.

Claims (18)

1. Verfahren zur Darstellung eines autostereoskopischen Bildes mittels mehrerer elek­ tronischer Kameras (A), eines Computers (B), eines Belichtungsgeräts oder Druckers (C), eines Rasterglases (1) und einer hinter dem Rasterglas (1) montierbaren, schwarz-weißen, Rasterpixel aufweisenden Folie (D), wobei in jedes Rasterpixel nebeneinander eine Vielzahl von Perspektiven geschrieben werden, dadurch gekennzeichnet, daß die Per­ spektiven eines einzelnen Objekts (O1, O2) des darzustellenden Bildes separat mit den Kameras aufgezeichnet werden und daß dann diese Perspektiven und entsprechende, jedoch ebenfalls separat aufgezeichnete Perspektiven eines weiteren Objekts und/oder separat aufgezeichnete oder erzeugte Perspektiven eines Hintergrundbildes durch 3D- gerechte Überlagerung im Computer (B) zum autostereoskopischen Bild zusammengesetzt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß jeder Perspektive eine Tiefenposition zugeordnet wird und bei der 3D-gerechten Überlagerung von Perspektiven mit unterschiedlichen Tiefenpositionen diejenigen Perspektiven zur Herstellung des autostereoskopischen Bildes verwendet werden, denen die geringeren Tiefenpositionen zugeordnet sind.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß den Perspektiven auch Transparenzmerkmale zugeordnet werden und in dem zusammengesetzten autostereoskopi­ schen Bild hinter den Perspektiven mit den geringsten Tiefenpositionen liegende Per­ spektiven mit einem Farbanteil berücksichtigt werden.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß die Tiefenpositionen aus Veränderungen von Objektkonturen benachbarter Perspektiven berechnet werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß bei der Darstellung des autostereoskopischen Bildes auf einem adaptiven 3D-Monitor ein separat aufgezeichnetes, dreidimensionales Objekt oder ein Hintergrund einkopiert und mit einem 3D-Cursor wunschgemäß in diesem positioniert wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß das Objekt (O1, O2) bei der Aufnahme in einem genau definierten, bekannten Raum (31, 32) positioniert wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß zur Herstellung des Bildes (6) wesentlich weniger Kameras (K1 bis K5) verwendet werden, als der Vielzahl der Perspektiven entspricht, und daß die Vielzahl der Perspektiven durch Verschiebung der Kameras (K1 bis K5) relativ zum Objekt (O1, O2) erhalten wird.
8. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die verschiedenen Kameras (K1 bis K5), um das zu fotografierende Objekt (O1, O2) herum kreisförmig verteilt werden.
9. Verfahren nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, daß die Kameras (K1 bis K5) abschnittsweise bewegt werden und daß nach jedem Bewegungs­ abschnitt mit allen Kameras (K1 bis K5) gleichzeitig je eine Aufnahme des Objekts (O1, O2) gemacht wird.
10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, daß die Kameras (K1 bis K5) zur Aufzeichnung von Zwischenperspektiven um das aufzuzeichnen­ de Objekt (O1, O2) rotieren.
11. Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, daß genau zwei Kameras (K1, K2) verwendet werden, die einen bestimmten horizontalen Abstand (Δk) derart aufweisen, daß die jeweils zwei aufgezeichneten Perspektiven denjenigen entsprechen, die ein Betrachter im Standardabstand bei der Darstellung des autostereosko­ pischen Bildes mit dem rechten und linken Auge sieht.
12. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß zur Herstellung des autostereoskopischen Bildes wesentlich weniger stationär angeordnete Kameras (K1 bis K5) verwendet werden als der Vielzahl der Perspektiven entspricht, und daß die Vielzahl der Perspektiven dadurch erhalten wird, daß von den Kameras (K1 bis K5) nicht lieferbare Perspektiven durch Interpolation der von den Kameras (K1 bis K5) gelieferten Perspektiven mit dem Grafikcomputer (4) generiert werden.
13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß die Kameras (K1 bis K5) auf einer Kreisbahn um das Objekt (O1, O2) herum angeordnet sind und die Zwischenperspektiven durch Interpolation im Grafikcomputer (4) unter Anwendung eines Minimierungs-Algorithmus für kreisförmig angeordnete Kameras (K1 bis K5) generiert werden.
14. Verfahren nach einem der Ansprüche 1 bis 13 dadurch gekennzeichnet, daß die Rasterpixel übereinander angeordnete Informationen betreffend Farbe und/oder Helligkeit in digitaler Form enthalten, wobei diese Informationen in Abhängigkeit von einer beim Betrachten des autostereoskopischen Bildes verwendeten Farb- und/oder Helligkeitsmaske (2, 3) gewählt sind.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß jedes Rasterpixel des Bildes in einem einer einzelnen Farb- und/oder Helligkeitsmaske (2, 3) zugeordneten Bereich einen mittleren Abschnitt mit neun übereinanderliegenden, schwarz- weiß codierbaren Pixeln und je einen darüber- und darunterliegenden Abschnitt mit je vier übereinanderliegenden, schwarz-weiß codierbaren Pixeln aufweist.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß das autostereoskopische Bild im Bereich von Übergängen zwischen den Abschnitten jeweils nicht codierbare, schwarze, zum Ausgleich von Montagetoleranzen bestimmte Pixel aufweist.
17. Verfahren nach einem der Ansprüche 15 oder 16, dadurch gekennzeichnet, daß die Pixel in den Abschnitten jeweils so codiert werden, daß die weiß codierbaren Pixel jeweils in der Mitte eines Abschnitts und dort direkt übereinander zu liegen kommen.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß der Bildträger mit zur µm-genauen Positionierung bestimmten, mit entsprechenden Justier­ zapfen (11) im Aufzeichnungs- und/oder Betrachtungsgerät zusammenwirkenden Justierlö­ chern versehen wird.
DE19853608A 1998-10-15 1998-11-20 Verfahren zur Darstellung eines autostereoskopischen Bildes Expired - Fee Related DE19853608C2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19853608A DE19853608C2 (de) 1998-11-20 1998-11-20 Verfahren zur Darstellung eines autostereoskopischen Bildes
EP99119995A EP0994630A3 (de) 1998-10-15 1999-10-13 Verfahren zur Herstellung von 3D - Fotos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19853608A DE19853608C2 (de) 1998-11-20 1998-11-20 Verfahren zur Darstellung eines autostereoskopischen Bildes

Publications (2)

Publication Number Publication Date
DE19853608A1 DE19853608A1 (de) 2000-05-25
DE19853608C2 true DE19853608C2 (de) 2003-06-18

Family

ID=7888477

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19853608A Expired - Fee Related DE19853608C2 (de) 1998-10-15 1998-11-20 Verfahren zur Darstellung eines autostereoskopischen Bildes

Country Status (1)

Country Link
DE (1) DE19853608C2 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10046786A1 (de) * 2000-09-19 2002-04-18 4D Vision Gmbh Verfahren zur Anpassung von Perspektivansichten an eine räumliche Darstellung und 3D-Kamera
DE102005058586B4 (de) 2005-12-04 2009-12-17 Universität Kassel Wiedergabevorrichtung zur autostereoskopen Wiedergabe von dreidimensionalen Darstellungen
DE102007056652A1 (de) 2007-11-24 2009-05-28 Looxis Gmbh Verfahren und Vorrichtung zur Erzeugung einer dreidimensionalen Nachbildung eines Objektes
DE102010002462B4 (de) 2010-03-01 2018-08-02 Bundesdruckerei Gmbh Kamerasystem zur Aufnahme von Bildern und zur Speicherung von Bildern in einem Dokument

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5937813B2 (ja) * 1975-12-25 1984-09-12 凸版印刷株式会社 リツタイ カヘンインサツブツニモチイル ガソゾウケイセイソウチ
US5455689A (en) * 1991-06-27 1995-10-03 Eastman Kodak Company Electronically interpolated integral photography system
US5697006A (en) * 1992-02-06 1997-12-09 Fuji Photo Film Co., Ltd. Method and apparatus for recording stereoscopic images and lenticular recording material used therefor
US5696596A (en) * 1994-07-05 1997-12-09 Canon Kabushiki Kaisha Electrostatic stereoscopic image recording method and apparatus
WO1998021619A1 (de) * 1996-11-08 1998-05-22 Siegbert Hentschke Stereo-hologramm-display (holdisp)

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5937813B2 (ja) * 1975-12-25 1984-09-12 凸版印刷株式会社 リツタイ カヘンインサツブツニモチイル ガソゾウケイセイソウチ
US5455689A (en) * 1991-06-27 1995-10-03 Eastman Kodak Company Electronically interpolated integral photography system
US5697006A (en) * 1992-02-06 1997-12-09 Fuji Photo Film Co., Ltd. Method and apparatus for recording stereoscopic images and lenticular recording material used therefor
US5696596A (en) * 1994-07-05 1997-12-09 Canon Kabushiki Kaisha Electrostatic stereoscopic image recording method and apparatus
WO1998021619A1 (de) * 1996-11-08 1998-05-22 Siegbert Hentschke Stereo-hologramm-display (holdisp)

Also Published As

Publication number Publication date
DE19853608A1 (de) 2000-05-25

Similar Documents

Publication Publication Date Title
DE69222695T2 (de) Autostereoskopisches Fotografie-System mit elektronisch interpolierten Bildern
DE69032840T2 (de) Verfahren und vorrichtung zur erzeugung von dreidimensionalen fernseh- oder anderen multidimensionalen bildern
EP2153269B1 (de) Verfahren zur ausrichtung eines parallaxenbarriereschirms auf einem bildschirm
DE69331114T2 (de) Autostereoskopische Anzeigevorrichtung
DE69515522T2 (de) Dreidimensionales bildformungssystem
DE19924096C2 (de) System zur stereoskopischen Bilddarstellung
DE19500315C1 (de) Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
WO2005029871A2 (de) Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit räumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
AT394459B (de) Verfahren zum gewinnen von bildern zur verwendung beim darstellen eines dreidimensionalen scheinbildes und bildaufzeichnungstraeger, auf dem erste und zweite gruppen von serien derartiger bilder gespeichert sind
DE10245611A1 (de) Vorrichtung zur Anzeige von dreidimensionalen Bildern
DE102007047470B3 (de) Verfahren zur Ausrichtung eines Parallaxenbarriereschirms auf einem Bildschirm
DE4312918A1 (de) Wiedergabeeinrichtung
DE19646046C1 (de) Stereo-Hologramm-Display
DE19853608C2 (de) Verfahren zur Darstellung eines autostereoskopischen Bildes
DE19500699A1 (de) Personen-adaptiver stereoskoper Video-Schirm (PASS)
DE102010041870A1 (de) Verfahren und System zur horizontrichtigen stereoskopischen Bildverarbeitung
WO2011032642A1 (de) Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe
DE10340109A1 (de) Verfahren zur Herstellung eines Mediums zur reellen und virtuellen Wiedergabe von realen oder berechneten dreidimensionalen Anordnungen
EP0994630A2 (de) Verfahren zur Herstellung von 3D - Fotos
DE10348618B4 (de) Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage
DE19848936A1 (de) Verfahren zum Printen ineinandergreifender Streifen von Bildern
WO1999009449A1 (de) Verfahren und anordnung zum herstellen eines räumlich wiedergebbaren bildes
DE19512293A1 (de) Verfahren und Vorrichtung zur Generierung von Raumbildern
DE102023109702A1 (de) Computerimplementiertes Verfahren zum Erzeugen eines verzerrungsoptimierten Panoramabildes und computerlesbares Speichermedium
DE10112181A1 (de) Aufsatz für einen Bildschirm und Bildschirm mit einem derartigen Aufsatz

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee