DE19853608C2 - Verfahren zur Darstellung eines autostereoskopischen Bildes - Google Patents
Verfahren zur Darstellung eines autostereoskopischen BildesInfo
- Publication number
- DE19853608C2 DE19853608C2 DE19853608A DE19853608A DE19853608C2 DE 19853608 C2 DE19853608 C2 DE 19853608C2 DE 19853608 A DE19853608 A DE 19853608A DE 19853608 A DE19853608 A DE 19853608A DE 19853608 C2 DE19853608 C2 DE 19853608C2
- Authority
- DE
- Germany
- Prior art keywords
- perspectives
- cameras
- image
- pixels
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 32
- 239000011521 glass Substances 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 claims 1
- 241000219739 Lens Species 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002745 absorbent Effects 0.000 description 2
- 239000002250 absorbent Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011888 foil Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 235000014647 Lens culinaris subsp culinaris Nutrition 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000010421 standard material Substances 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/225—Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/229—Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
- H04N13/289—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/32—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/341—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
Die Erfindung betrifft ein Verfahren nach dem Oberbegriff des Anspruchs 1 zur Dar
stellung von autostereoskopischen Bildern.
Stereoskope Film- und Projektionsverfahren sind seit Jahren im Einsatz. Meist wird
polarisiertes Licht (horizontal/vertikal, zirkular) benutzt, um das rechte und linke Bild zu
trennen. Mit dem Fortschritt der LCD-Technik wurde es möglich, die Lichtdurchlässigkeit
von Kristallen elektronisch zu steuern. Dies machte die Entwicklung der Shutter-Technik
möglich, bei der synchron mit der Halbbildfrequenz abwechselnd das rechte und das linke
Brillenglas lichtundurchlässig wird und synchron dazu rechte und linke Bilder sequentiell
auf dem Bildschirm erscheinen.
Autostereoskope Projektionen werden mit Hilfe von Leinwänden mit Streifenlinsenrastern
bei mehreren Projektionsrichtungen durchgeführt. Dabei wird der entsprechenden
Richtung das richtige Perspektivbild zugeordnet [R. Börner: Autosteroscopic 3-D Imaging
by Front and Rear Projection and on Flat Panel Displays, Displays Vol. 14. No. 1 (1993),
pp. 39-46]. Ein fließender Übergang von einer Perspektive zur nächsten ist dabei kaum zu
erreichen, da die Anzahl der Projektionsrichtungen nicht beliebig erhöht werden kann. Bei
einem autostereoskopen Display, das für nur eine Person bestimmt ist, verwendet man nur
zwei Perspektiven, die eine bestimmte Blickrichtung erfordern [EP 0 836 332 A1;
R. Börner: Autostereoskope Rückprojektions- und Flachbildschirme, Fernseh- und
Kinotechnik Bd. 48, Nr. 11 (1994). S. 594-600]. Die Darstellung eines stereoskopen
Bildes wie in einem Hologramm wird dagegen unter Verwendung von "Head Tracking"-
Sensoren erreicht, die einerseits einen leistungsstarken Echtzeitrechner zur Berechnung der
passenden stereoskopen Bildperspektiven und andererseits einen autostereoskopen Schirm
zur Nachführung des optischen Strahlenganges steuern [EP 0 836 332 A2; S. Hentschke:
Personenadaptiver autostereoskoper Monitor - eine Option für den Fernseher? Fernseh-
und Kinotechnische Zeitschrift Nr. 5/1996, S. 242-248; DE 39 21 061 A1]. Hierbei wird
die genaue Kopfposition und -bewegung detektiert, und die zugehörigen Bilder werden
gleichzeitig generiert. Darüberhinaus kommen auch aufwendige VR-Systeme (Virtual
Reality) unter Benutzung gewöhnungsbedürftiger "Head Mounted Displays" zum Einsatz.
In der Medizintechnik sind Kernspinresonanz und Computertomographie die wichtigsten
Einsatzgebiete für stereoskope 3D-Visualisierungen. Um bestimmte gesuchte Perspektiven
zu berechnen, werden leistungsfähige Spezialrechner eingesetzt. Kombinierte Computervi
sualisierungen und Echtzeitübertragungen von Endoskopen werden zu einem der wichtig
sten neurochirurgischen Werkzeuge. Stereoskope Endoskope sind bereits im Einsatz. Eine
elektronische Bewegungssteuerung über einen auf Infrarotbasis arbeitenden "Head
Tracking Sensor" wird leicht zu kombinieren sein mit einem personenbezogenen auto
stereoskopen Bildschirmsystem.
Neben den Shutter-Monitoren sind autostereoskope adaptive Monitore bekannt
(DE 195 00 315 C1), die für die jeweilige Betrachterposition zwei Perspektiven, eine
rechte und eine linke, auf dem Monitor-Display getrennt für das rechte und linke Auge
darzustellen vermögen. Dies erfordert jedoch eine in Echtzeit zu tätigende Neuberechnung
von Gegenstandsperspektiven, wenn sich der Benutzer bewegt.
Zur Darstellung autostereoskopischer Bilder sind weiterhin Vorrichtungen in Form von
Stereo-Hologramm-Displays bekannt geworden (PCT WO 98/21 619), die mehrere
elektronische Kameras, einen Computer, ein Belichtungsgerät oder einen Drucker, ein
Rasterglas und eine hinter diesem montierbare, schwarz-weiße, Rasterpixel aufweisende
Folie enthalten, wobei in jedes Rasterpixel nebeneinander eine Vielzahl von z. B.
128 Perspektiven geschrieben wird, wobei auch die Möglichkeit angedeutet ist, aus zwei
oder mehr vorhandenen Perspektiven (durch Interpolation) weitere Perspektiven zu
gewinnen. Dabei wird allerdings stillschweigend vorausgesetzt, daß die aufgenommenen
Objekte bekannte Tiefenpositionen haben und sich bei der Aufnahme nicht überdecken.
Wie bei Überdeckungen vorzugehen ist, kann weder diesem benannten Vorschlag noch
dem weiteren, für Verfahren der eingangs bezeichneten Gattung einschlägigen Stand der
Technik entnommen werden (z. B. US 5 696 596, US 5 697 006, US 5 455 689,
JP-37 813 B2). Eine derartige natürliche dreidimensionale Darstellung von Objekten
benötigt kein Head-Tracking System mehr und kann von mehreren Personen gleichzeitig
zur autostereoskopen Darstellung genutzt werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Darstellung von autostereo
skopischen Bildern vorzuschlagen, mit dem mit einfachen technischen und kostengünstigen
Mitteln ein Objekt, insbesondere ein Portrait einer Person, mit einer Vielzahl von
Perspektiven farb- und tiefengetreu dargestellt werden kann. Die dreidimensionale
Information des Bildes soll wie in PCT WO 98/21 619 dargestellt und wahlweise auf einer
schwarz-weißen, hochpräzisen Fotofilmschicht, auf einem herkömmlichen Filmmaterial
oder auf einer normalen Folie gespeichert werden können.
Zur Lösung dieser Aufgabe dienen die kennzeichnenden Merkmale des Anspruchs 1.
In Erweiterung des bekannten Verfahrens (PCT WO 98/21 619) wird durch die Erfindung
auch für eine Großdarstellung (z. B. 64 cm × 48 cm) eine preisgünstige schwarz-weiße
Filmfolie verwendbar. Um die dreidimensionale Aufbereitung zu vereinfachen und auf
wenige Objekte zu konzentrieren, hält ein Graphikcomputer vorbereitete dreidimensionale
Umgebungen bzw. Hintergründe zur Auswahl bereit. Eine zu portraitierende Person wird
von einem elektronischen Kamerasystem fotografiert. Die Daten werden zu einem
Graphikcomputer geleitet, der diese Informationen auf das spezifische 3D Schwarzweiß
format umrechnet und einer Belichtungsmaschine unmittelbar zuführt. Nach wenigen
Minuten kann das Bild betrachtet und gegebenenfalls verändert aufgenommen und
dargestellt werden. Das Verfahren arbeitet vorzugsweise mit einer Hintergrundbeleuch
tung, aber auch eine normale diffuse Bestrahlung von vorne möglich.
Für die computergestützte tiefengetreue Berechnung eines Bildes benötigt man vor einem
Gegenstand bis über einhundert verschiedene Ansichten aus unterschiedlichen Blickpositio
nen. Die simultane Aufzeichnung von derartig vielen Bildern stellt dabei ein technisches
Problem dar. Die dreidimensionale Aufzeichnung einer ruhenden Umgebung kann durch
einen langsam und gleichmäßig bewegte Kamera vorgenommen werden, die alle paar
Millimeter eine Aufnahme macht. Bei sich bewegenden Objekten versagt die sequentielle
Aufzeichnung. Bei der fotographischen Aufnahme von einer Person oder von mehreren
Personen muß man von Bewegungen ausgehen, so daß man auf die gleichzeitige Aufzeichnung
unterschiedlicher Perspektiven nicht verzichten kann. Dieses Problem wird
erfindungsgemäß vorzugsweise dadurch gelöst, daß eine geringe Anzahl von elektroni
schen Kameras, beispielsweise zwei, vier oder acht, nebeneinander in gleichmäßigen
Abständen angeordnet und synchron ausgelöst werden. Eine Person oder ein sich bewe
gender Gegenstand wird dabei vor einem weißen oder gleichfarbigen Hintergrund
dargestellt. Aus diesen wenigen Bildern berechnet dann ein Graphikcomputer mit einer
schnellen Korrelationsanalyse alle anderen erforderlichen Zwischenansichten. Die dann mit
Tiefenpositionen gekennzeichneten dreidimensionalen Bildpixel eines Objektes können in
eine wunschgemäß ausgewählte ruhende Umgebung positionsgerecht gemischt werden.
Die Erfindung ermöglicht eine echte dreidimensionale Darstellung eines räumlichen
Gegenstandes. Die 3D-Bilder selbst können auf handelsüblichen preisgünstigen Schwarz
weißfilmen mit Größen über DIN A 3 untergebracht werden. Die in dem Graphikcompu
ter abgelegten dreidimensionalen Hintergrundbilder sowie Objekte tragen alle Objektken
nungen und können unterschiedlich in einem zusammengesetzten Bild positioniert werden.
Es kann auch ein Gruppenbild vieler Personen vor einem bekannten Objekt tiefengetreu
zusammengestellt werden. Bevor man einen Film belichtet, kann man sich ein solches
Szenario auf einem personenadaptiven 3D-Monitor betrachten und Veränderungen in der
Darstellung vornehmen.
Für Werbezwecke können auch Objekte mit bestimmten Bewegungseffekten aufgezeichnet
werden: beispielsweise kann sich beim Vorübergehen ein Gesicht verändern oder ein Arm
heben, oder es kann sich aus einer bestimmten Blickrichtung ein Fenster öffnen, etc.
Dabei ist es durchaus denkbar, daß sich ein sehr großes Bild aus mehreren kleinen
Teilbildern zusammensetzen läßt.
Auch Personen, denen eine normale Stereosicht verwehrt ist, weil beispielsweise ein Auge
zu schwach sieht, können den 3D-Effekt hierbei wahrnehmen, indem sie ihre Position
geringfügig horizontal variieren und hier die verschiedenen Perspektiven erkennen.
Das hauptsächliche Anwendungsgebiet für das erfindungsgemäße Verfahren sind 3D-
Fotostudios, die mit einem System elektronischer Kameras, einen Graphikcomputer, einem
personenadaptiven 3D-Monitor sowie mit einem Schwarzweißbelichtungsgerät ausgerüstet
sind. Selbstverständlich kann diese technische Ausrüstung auch genutzt werden, um
preisgünstige, große, zweidimensionale Farbbilder anzufertigen. Anstelle einer Linsenra
sterscheibe könnte in diesem Fall ein billigeres Bildglas mit einer Farbmaske benutzt
werden.
Ein weiteres interessantes Anwendungsgebiet ist die Radiologie in der Medizintechnik:
schwer zu interpretierende zweidimensionale Röntgenbilder können durch dreidimensiona
le ersetzt werden. Jeder Arzt, der heute Röntgenbilder interpretiert, braucht nur zusätzlich
eine Linsenrasterscheibe mit Farbmaske, wenn er auf eine 3D-Röntgenstation zurückgreift.
Das gleiche gilt für die Kernspintomographie.
Setzt man mehrere Teilbilder zu einem Großbild zusammen, so wird in der Architektur
ein besonders interessantes Anwendungsgebiet erschlossen: anstatt eines Modells kann ein
3D-Großbild präsentiert werden.
Weitere vorteilhafte Merkmale der Erfindung ergeben sich aus den Unteransprüchen.
Die Erfindung wird nachfolgend in Verbindung mit den beiliegenden Zeichnungen an
Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 schematisch eine 3D-Portraitierung mit elektronischen Kameras, einem Graphik
computer und einem Belichtungsgerät und die nachfolgende Wiedergabe;
Fig. 2 ein Stereofarbhologramm-Sichtgerät für 3D-Fotos, z. B. für die Kernspin- und
Röntgentomographie;
Fig. 3 die Darstellung von Objektpositionen in Kamera-Bildern;
Fig. 4 die Darstellung von Objektpositionen in Bildern von kreisförmig angeordneten
Kameras;
Fig. 5 die Darstellung der verschiedenen Perspektiven in einem Hologrammbild;
Fig. 6 die Darstellung der Interpolation fehlender Perspektiven;
Fig. 7 die Darstellung eines relativen Koordinatensystems für die Kamera und für den
Betrachter; und
Fig. 8 eine Zylinderlinsen-Rasterscheibe in auseinandergezogener Darstellung zusammen
mit einem positionsgetreu auflegbaren 3D-Foto.
Um auch ein größeres 3D-Bild, z. B. 60 cm × 40 cm, preisgünstig halten zu
können, ist es wichtig, daß man für den Schwarzweißfilm Standardmaterial
verwenden kann. Dabei taucht das Problem auf, daß es ohne Zusatzmaß
nahmen unmöglich ist, auf eine solche große Fläche den Film µm genau auf
die Farb- und Helligkeitsmasken aufzubringen. Beispielsweise müßte Filmma
terial auf ein Glas dieser Größe aufgebracht werden und danach belichtet
und entwickelt werden, damit es µm genau auf die vordere Glasscheibe mit
dem Linsenraster und der aufgesputterten Farb- und Helligkeitsmaske
aufgebracht werden kann. Das bei der Verwendung von Standardfolien
auftretende Montageproblem ist auch in der Basisanmeldung "HOLDISP"
nicht gelöst. Deshalb wird im Folgenden ein ergänzender Vorschlag be
schrieben, wie man dennoch Standard-Filmmaterial, das z. B. auch für
Röntgenfotos verwendet wird, einsetzen kann.
Fig. 8 veranschaulicht die erforderlichen Maßnahmen. Man kann davon
ausgehen, daß eine Zylinderlinsen-Rasterscheibe vorhanden ist mit vertikalen
Zylinderlinsen (1) im Pitchabstand von ca. 0,5 mm der Glasscheibe, auf die
die Linsen aufgebracht sind (2) und mit einer µm genau aufgesputterten
Farb- und Helligkeitsmaske. Die Farb- und Helligkeitsmaske besteht aus
horizontalen, sich wiederholenden Streifen der Farben schwarz, rot, grün,
blau. Jeder einzelne Farbstreifen hat eine Breite von ca. 100 µm. Jeder rote,
grüne oder blaue Farbstreifen ist unterteilt in je drei weitere Streifen der
Breite 25 µm, 50 µm 25 µm. Der mittlere, 50 µm breite Streifen enthält
keine weitere Helligkeitsfilterung zur Absorbierung des Lichts, während die
Streifen (5) und (6) zusätzlich geschwärzt sind, so daß Licht absorbiert
wird. Dabei absorbiert der Streifen (5) 90% und der Streifen (6) 98%. Der
aufgelegte Film (8) enthält die eigentliche Bildinformation mit kleinen qua
dratischen schwarzen oder durchsichtigen Flächen in der Größe von 5 µm
× 5 µm. Das bedeutet, daß auf einem Streifen von 100 µm 20 schwarz-
weiße Substreifen Platz finden. Der aufzubringende Film (8) wird nun so
belichtet, daß bei den Übergängen von beispielsweise rot auf grün oder von
stärker absorbierenden auf weniger absorbierenden Streifen jeweils ein
schwarz bleibender Streifen auf dem Film symmetrisch zu den Übergängen
aufgebracht wird, während die anderen Pixel zur Codierung frei sind. Auf
den Streifen (5) und (6) können dann übereinander noch 4 µ-Pixel zur
Codierung benutzt werden, während auf dem breiten mittleren Streifen von
50 µm 9 übereinanderliegende µ-Pixel für die schwarz-weiß Codierung
benutzt werden können. Im Gegensatz zu dem ursprünglichen Verfahren in
"HOLDISP" wird hier ein breiter Streifen von 50 µm verwendet, in dem 9
Unterpixel zur Codierung nebeneinander benutzt werden können. Dies hat
den Vorteil, daß insgesamt bei der hellsten Bildinformation weniger als 50
% des Lichtes verloren gehen, d. h. durch die Helligkeitsfilterung absorbiert
werden. In dem mittleren Streifen, der keine Helligkeit absorbiert, können
folgende Helligkeitswerte codiert werden 0, 25, 50, 75, 100, 125, 150,
175, 200, 225. In dem Streifen (5) können dann folgende 5 Helligkeits
werte, die den ersten additiv überlagert werden, codiert werden: 0, 5, 10,
15, 20. Und im Streifen (6) schließlich die Werte 0, 1, 2, 3, 4, die additiv
überlagert werden können. Damit sind insgesamt 250 verschiedene Hellig
keitsstufen codierbar.
Der aufzubringende Film darf nun auf Grund der überdeckten Übergänge in
vertikaler Richtung einen Versatz um maximal plus/minus 2,5 µm aufweisen,
ohne daß eine Veränderung in der Qualität des Bildes auftritt.
Der im Hologramm-Display (HOLDISP) vorgesehene schwarze Streifen bietet
die Möglichkeit zur µm genauen Positionierung des Filmes gegenüber der
Scheibe. Es wird nun eine Glasscheibe verwendet, die an den vorgesehenen
schwarzen Streifen kleine Positionierungszapfen (4) mit einem Durchmesser
von ungefähr 50 µm und einem Vorsprung in der Dicke des Filmmaterials
von ca. 20 µm haben. In den Film, bzw. der Folie werden vor dem Belichten
bzw. Beschreiben ebenfalls diese Positionierungslöcher gestanzt in µm
genauem Maß. Der Belichter oder Drucker muß nun ebenfalls in den gleichen
Abständen diese Positionierungszapfen aufweisen, damit der Film groß
flächig µm genau beschrieben werden kann.
Die Positionierungszapfen (4) bzw. (11) sind wie im Schnitt C gezeigt
konisch, damit sich das Filmmaterial leichter in die passende Stelle drücken
läßt. Es könnte nun vorkommen, daß der aufgedrückte Film in den Farb
streifen RGB zwischen Glas und Film Luftblasen übrigbehält und an anderen
Stellen nicht aufliegt. Und auf diese Weise könnten später Newton-Ringe
entstehen. Deshalb wird hier das vorgesehene Glas (2) so ausgeführt, daß
in den Bereichen der Farbstreifen RGB, also in einer Breite von ca. 300 µm
das Glas eine Vertiefung von ca. 3 bis 5 µm aufweist, so daß zwischen Glas
und Film in dem Bereich der Farbstreifen ein Luftkissen (10) entsteht, über
das der Film gespannt wird.
Um die Helligkeitswerte in den 3 Unterstreifen des Farbstreifens zu codieren
gibt es mehrere Möglichkeiten. Verwendet man eine ungünstige Codierung,
z. B. übereinander Pixel transparent/schwarz, transparent/schwarz etc., so
kann dies bei Verwendung von kohärentem Licht zu störenden Interferen
zen führen. Deshalb wird in den einzelnen Helligkeitssubstreifen eine Codie
rung derart gewählt, daß bei steigender Helligkeit die transparenten Subpixel
übereinander so angeordnet werden, daß bei der kleinsten Helligkeitsstufe
in der Mitte eines Streifens auf transparent geschaltet begonnen wird und
bei steigender Helligkeit um diese herum direkt darüber und dann darunter
durchgeschaltete transparente Pixel angeordnet werden, so daß kein Wech
sel zwischen transparent und schwarz entsteht. Dies führt, wie in Fig. 8B
gezeigt, bei fallender Helligkeit in horizontaler Richtung zu einem Keil in der
Codiermaske.
Diese hier beschriebenen Positionierungs-Maßnahmen führen dazu, daß ein
dreidimensionales Bild mit hoher Qualität entsteht, das für einen Betrachter
in der vorgesehenen Abstandsposition 50 verschiedene Stereobilder bietet
mit voller Fotoqualität. Voraussetzung hierfür ist, daß dieses Bild von hinten
gleichmäßig beleuchtet wird, wobei man natürlich auch auf die Erfahrung
bei TFT Flachbildschirmen zurückgreifen kann.
Ermittlung fehlender Zwischenperspektiven aus zwei vorhandenen Perspekti
ven: Ein hier beschriebenes 3D-Bild setzt sich im Normalfall aus 128 Einzel
perspektiven zusammen. Diese Zahl entspricht dann auch der Anzahl dar
stellbarer Tiefenpositionen. Diese müßte für bewegte Objekte synchron von
128 Kameras aufgezeichnet werden. Bei einfachen Objekten könnte man
mit weniger aufgezeichneten Perspektiven auskommen, wenn Zwischenper
spektiven aus den vorhandenen berechnet werden. Dies führt jedoch bei
einer drastischen Reduktion auf nur 4 oder 8 aufgezeichnete Perspektiven
auf erhebliche Probleme, da in der Regel nicht definierte verdeckte Regionen
fehlen. Auch die Rekonstruktion von Tiefenpositionen aus zwei oder mehr
Bildern aus unterschiedlichen Richtungen per Korrelation ist in den meisten
Fällen nicht eindeutig möglich, wenn sich ähnliche Texturen oder kleine
Formen wiederholen. Wie man dieses Problem bei 3D-Portraitbildern mit
detailreichem Hintergrund löst, wird im Folgenden beschrieben.
Durch folgende Einzelmaßnahmen wird erreicht, daß ein 3D-Portrait in
detailreicher Umgebung so gut wie vollständig aus wenigen 2dimensionalen
Bildern aus bestimmten unterschiedlichen Richtungen rekonstruiert werden
kann.
- 1. Das zu portraitierende Objekt wird in einem genau vordefinierten be grenzten Raum positioniert.
- 2. Zwei, vier oder mehr Kameras werden um das zu portraitierende Objekt herum genau reproduzierbar aufgestellt vor einem bekannten, vorher aufge zeichneten Hintergrund oder vor einem gleichfarbigen (blauen) Hinter grund mit einem Eichmuster, vgl. Fig. 3 und Fig. 4.
- 3. Mehrere auf einem Bild zu portraitierende Objekte werden nacheinander aufgezeichnet.
- 4. Die Pixel auf den aufgezeichneten zweidimensionalen Perspektivbildern werden unter Benutzung von a priori-Informationen über Grobform und Raumposition eines Objektes die möglichst genauen Tiefenpositionen der einzelnen Pixel ermittelt. Die Tiefenpositionswerte werden zu den RGB Werten als weiteres Wort zu den einzelnen Pixeln der Datei abgespeichert.
- 5. Die jeweils zwischen zwei Kamerapositionen fehlenden Perspektiven werden aus den beiden Randbildern mittels der Tiefenpositionskennzeich nungen der einzelnen Pixel für die Zwischenperspektiven interpoliert und in die entsprechenden Dateiplätze eingetragen bzw. hinzugefügt. Eventuell unterschiedliche Farbwerte des gleichen Objektpunktes aus unterschiedlichen Richtungen werden für die Zwischenwerte linear interpoliert.
- 6. Ein detailreiches dreidimensionales Umgebungsbild wird entweder per Computer erzeugt, wobei jedes Pixel jeder Perspektive mit der Tiefenposi tion gekennzeichnet ist, oder ein natürliches Umgebungsbild wird mit einer bewegten Kamera aus den entsprechenden Perspektiven nacheinander aufgezeichnet, so daß 128 oder mehr Perspektiven verfügbar sind, aus denen Tiefenangaben für alle Pixel ermittelt werden können. Dabei werden nicht eindeutig gefundene Tiefenpositionen gekennzeichnet und durch eine Sonderprozedur nachträglich festgelegt.
- 7. Die 3D-Bilder eines Objekts und der Umgebung, bestehend aus 128 Per spektivbildern, in denen jedes Pixel mit einer Tiefenangabe gekennzeichnet ist, können nun ansichtengetreu überlagert werden, indem bei jedem Pixel dasjenige mit der geringeren Tiefenposition ausgewählt wird. Bei teiltrans parenten Objekten, die entsprechend gekennzeichnet sein müssen, ist das hintere mit einem gewissen Gewicht zu berücksichtigen.
- 8. Sollen mehrere Objekte bzw. Positionen von 3D Bildern tiefengetreu an bestimmten Raumpositionen dargestellt werden auf einem Bild, so können die Raumpositionen der einzelnen Objekte mit einer 3D Mouse verschoben auf einem Monitor angezeigt und fixiert abgespeichert werden.
- 9. Soll ein Objekt ringsherum aufgezeichnet werden, so wird der in Bild 4 gezeigte Teilkreis von Kameras fortgesetzt zu einem Kreis. Alle Kameras nehmen dann zwei Bilder auf, eins mit Objekt in der Mitte und eins ohne Objekt in der Mitte. Dadurch kann die nicht zum Objekt gehörende Umge bung nachher aus dem Bild wieder entfernt werden.
- 10. Die Tiefenpositionen eines Pixels im Raum wird aus zwei benachbarten Perspektiven durch Minimieren einer Umgebungsnorm beim horizontalen Verschieben von Pixel zu Pixel gefunden. Die Norm besteht dabei aus der Summe der Absolutbeträge von Differenzen von Pixeln aus dem einen Bild mit Pixeln aus der Nachbarperspektive, die um einen bestimmten Betrag horizontal verlagert sind. Dort, wo die Umgebung des Punktes des einen Bildes sich am besten deckt mit der Umgebung des Punktes aus dem ande ren Bild, ergibt sich die horizontale Verschiebung, die dann korrespondiert mit der Tiefenposition. Dadurch, daß die Grobposition des Objektes bekannt ist, kann die Minimierung mit einer erwarteten Verschiebung gestartet werden. Berücksichtigt werden bei der Minimierung auch variabel gewichte te Umgebungspunkte.
Es werde angenommen, daß ein bestimmter Objektpunkt auf zwei Bilden
benachbarter Kameras eindeutig als Pixel identifiziert wurde. Sind dann die
Kamerapositionen einschließlich ihrer Richtungen genau bekannt, so kann
aus dem horizontalen Versatz dieser Pixel auf den beiden Bildern die Tiefen
position dieses Punktes berechnet werden. Die Tiefenposition wird im
Folgenden geometrisch bestimmt. Hierfür verwenden wir ein relatives xyz-
Koordinatensystem und ein lokales uv-Koordinatensystem, wie sie in Fig. 7
gezeigt sind. Die relativen Koordinaten sind so angebracht, daß der Ur
sprung in dem Punkt liegt, un dem sich die Strahlen von den Objektpunkten
aus dieser Umgebung kreuzen. Die uv-Koordinaten liegen auf der Bildebene
und sind in negative xy-Richtungen orientiert. Die uv-Bildebene liegt dabei
parallel zur xy-Ebene an der Stelle z = ZK. Ein sichtbarer Objektpunkt mit den
Koordinaten (X1, Y1, Z1) erscheint dann auf dem Bild an der Stelle
(U1, V1) = (X1, Y1).ZK/Z1 (1)
Nun seien zwei Kameras K1, K2 gegeben mit den lokalen Koordinaten u1,
v1 bzw. u2, v2, deren Strahlenkreuzungspunkte auf der x-Achse an den
Stellen XK1 = -DK/2 und XK2 = +DK/2 liegen. Die Bildebenen mögen wieder
parallel zur xy-Ebene angeordnet sein, im Abstand ZK. Dann erscheint der
identifizierte Bildpunkt auf den Bildern an den Stellen
(U1, V1) = (X1 + -DK/2, Y1).AK/Z1 (2) bzw.
(U2, V2) = (X1 - -DK/2, Y1).AK/Z1 (3).
Dabei ist ZK = -AK der Abstand der Bildebene vom Kreuzungspunkt. In der
Praxis muß später berücksichtigt werden, daß die Auflösung der Bilder nur
endlich ist, z. B. 1280 oder 2560 Pixel horizontal beträgt. Es muß also in
Betracht gezogen werden, daß jeder diskrete Wert, wie U1, U2, auf Grund
der Quantisierung mit gewissen Toleranzen versehen werden muß.
Da die Parameterwerte für die Ein- und Aufstellungen der Kameras bekannt
sind, folgt aus der Differenz der obigen Gleichungen die Angabe für die
Tiefenposition.
Z1 = DK.AK/(U1 - U2) (4)
Um eine bessere Ausnutzung des Filmes in der Kamera zu erreichen, ist es
vorteilhaft, die Kameras um den Mittelpunkt des vorgesehenen Objektzen
trums anzuordnen, wie es Fig. 4 zeigt. In diesem Falle würde man Polarkoor
dinaten bevorzugen, für die folgende Beziehung gilt:
x = r.cos(ϕ).sin(δ), 0 < ϕ < 2π
y = r.sin(ϕ).sin(δ), 0 < δ < +π
z = r.cos(δ) (5)
Die inverse Transformation lautet dann
r = √(x2 + y2 + z2) (6)
ϕ = arctan(y/x) (7)
δ = arctan[z/√(x2 + y2)] (8)
Die kreisförmig angeordneten Kameras seien auf das Objektzentrum gerich
tet mit den Koordinaten
MO = (xo, yo, zo) = (0, 0, RO) (9)
Die Kameras haben also alle einen Abstand RO; vom Objektzentrum OZ und
seien von diesem aus, in negativer z-Richtung betrachtet, an den Winkeln Ψi
positioniert, wobei je zwei benachbarte eine Winkeldifferenz ΔK = Ψi - Ψi-1
einschließen mögen (vgl. Fig. 4).
Die lokalen Koordinaten der i-ten Kamera, die auf das Objektzentrum OZ
ausgerichtet ist, seien mit ui, vi bezeichnet In den relativen Koordinatensy
stemen der i-ten Kamera Ki kann zu einem identifizierten Objektpunkt mit
den Koordinaten Ui0, Vi0 der zugehörigen relativen Raumwinkel berechnet
werden.
In Bezug auf die i.te Kamera ergibt sich folgender Raumwinkel
ϕi0 = arctan(Vi0/Ui0) (10)
δi0 = arctan[√(Ui0 2 + Vi0 2)/AK] (11)
Die Projektion des Raumwinkels auf die Ebene y = 0 liefert den Winkel zur z-
Achse
δi0z = arctan[Ui0/AK] (12)
Der Schnittpunkt der Projektionen zweier Raumwinkel, von zwei benach
barten Kameras Ki, Ki-1 aus betrachtet, führt dann zur Tiefenposition des
identifizierten Objektpunktes.
Der Strahlenkreuzungspunkt der i-ten Kamera in der xz-Ebene ist dann in
dem ursprünglichen xyz-Koordinatensystem durch folgende Koordinaten
gegeben
XiK = ROK.sin(Ψi) (12)
ZiK = ROK.(1 - cos(Ψi)) (13).
Die i-te projizierte Gerade durch den zugehörigen Kamerakreuzungspunkt
besitzt dann folgende Gleichung in der xz-Ebene:
x - XiK = (z - ZiK).tan(δi0z.ΨiK) (14):
Die Differenz aus zwei solchen benachbarten Gleichungen liefert den
Schnittpunkt z = Z0, der gleichzeitig die Tiefenposition Z0 des identifizierten
Objektpunktes angibt.
XiK - XIK - ZiK.tan(δi0z.ΨiK) + ZIK.tan(δI0z.ΨIK) = ZO.[tan(δi0z.ΨiK) -
tan(δI0z.ΨIK)]
für I = i - 1.
Die Division der Gleichung durch den Faktor bei ZO auf der rechten Seite
dieser Gleichung führt auf die Tiefenposition ZO des identifizierten Punktes
O. Kann in allen perspektivischen Bildern derselbe Objektpunkt identifiziert
werden, so müssen aus den benachbarten Perspektiven die gleichen Tiefen
positionen sich ergeben - bis auf eine zulässige Quantisierungsunsicherheit.
Zur Kontrolle sollte die Tiefenposition eines identifizierten Objektpunktes
nicht nur aus den beiden Perspektiven i und i - 1 ermittelt werden, sondern
man sollte auch aus mehr Perspektiven wie I = i + 1, I = i - 2u, m. die Tiefen
positionen von Punkten ermitteln um ggf. dann gültige Mittelwerte daraus
zu ermitteln. Diejenigen Objektpunkte, die mindestens in zwei verschiedenen
perspektivischen Bildern eindeutig identifiziert werden konnten, sind somit
mit genauen Tiefenpositionen versehbar. Das gilt auch für eine Anordnung,
in der die Kameras um das ganze Objekt herum angeordnet sind.
Hat eine Objektregion in einer gewissen Umgebung gleichmäßige Helligkeit
und Farbe, so können Punkte dieser Region auf benachbarten Bildern nicht
eindeutig identifiziert werden. In diesen Fällen muß eine ganze Umgebung
zur Findung der Tiefenposition herangezogen werden. Dies wird im Folgen
den näher erläutert. Die Größe einer zu berücksichtigen Umgebung soll
mittels eines Parameters a einstellbar sein. Für die Gewichtung der Umge
bung wird eine Exponentialfunktion herangezogen, wie sie auch für eine
optische Filterung gilt.
Die Farbwerte auf den Pixeln der Bilder der Kameras sind nicht kontinuierlich
abgespeichert, sondern quantisiert und über die lokalen Koordinaten u, v
digitalisiert mit Pixelzahlen in der horizontalen Richtung in der Regel von
1280 und in der vertikalen von 1024. Das bedeutet, die relative horizontale
Koordinate ui der i-ten Kamera hat ganzzahlige Werte zwischen -640 und
+629 und die vertikale Koordinate vi liegt zwischen -512 und +511. Die
horizontalen Koordinatenpunkte mögen gekennzeichnet werden durch die
ganzzahligen Indexwerte m und die vertikalen Koordinaten v, durch die
Indexwerte n, m bezeichnet dann also Spaltenpositionen einer Matrix und n
Zeilenpositionen. Wenn die horizontalen Koordinaten zwischen -umax und
+umax variieren und die vertikalen zwischen -vmax und +vmax, dann kann die
Quantisierung durch die Integerfunktion ausgedrückt werden.
m = int(640.u/umax) (16) und
n = int(612.v/vmax) (17).
Die Farben R, G, B sind ebenfalls quantisiert und zwar in 256 Stufen, d. h. sie
haben ganzzahlige Werte zwischen 0 und 255. Ein quantisierter Farbwert in
der i-ten Kamera möge bezeichnet werden mit Fi. Um die Farben R, G, B an
den Pixel n, m mit zu berücksichtigen, werden die Pixelwerte gekennzeichnet
durch die Funktion Fi(f, m, n). Dabei stehe f = 0 für R (Rot), f = 1 für G (Grün)
und f = 2 für B (Blau).
In der Regel wird es genügen, eine Umgebung von ±10 Punkten in beiden
Richtungen zu berücksichtigen. Dann lautet die Identifizierungsfunktion zwi
schen zwei Bildern benachbarter Kameras i und I
Derjenige ganzzahlige λ-Wert, bei dem diese Summe ein Minimum ist, liefert
die Differenz in der u-Koordinate, die dann auf die Tiefenposition führt. Der
Bereich, den λ durchläuft, wird durch die Begrenzung des Portraitierungs
raumes bestimmt. Die obige Differenzbildung verschiedener Pixel ist für
kleine Werte von n richtig und müßte für größere n-Werte geringfügig
korrigiert werden. Punkte vor und hinter dem Objektzentrum in unterschiedli
chen Bildern können auf unterschiedliche v-Koordinaten fallen. Der zweite
Term in der Differenz ist dann durch einen ganzzahligen Indexwert ρ zu
ergänzen. Dieser Wert ρ ist abhängt von n, d. h. der Höhe im Bild, und der
Kamera-Differenz i - I: ρ = ρ(n, i - I). Auf eine genaue Berechnung der zugehöri
gen ganzzahligen Werte kann an dieser Stelle verzichtet werden, da es
vorteilhaft ist, diese Wert in einer Tabelle abzulegen und bei Bedarf auf
zurufen. Der Term lautet also FI(f, m - µ - λ, n - ν - ρ).
Die wesentlichen Bildinformationen, aus denen die Tiefenpositionen rekon
struiert werden, liegen in den Rändern von Figuren, d. h. bei Farb- und Hellig
keitsänderungen im Bild. Deshalb kann es vorteilhaft sein, die Bilder vor der
Ermittlung der Tiefenpositionen zu filtern. Ein solcher Filteroperator, der nicht
benötigte Bildinhalte wegfiltert, wäre ein Kantenfilter, der vertikale Kanten
anhebt und gleichmäßige Helligkeitsregionen auf einen konstanten Wert
setzt. Dadurch kann erreicht werden, daß das oben angegebene zu ermit
telnde Minimum über λ ausgeprägter ist. Auf eine genauere Beschreibung
der Kantenfilterung braucht hier nicht eingegangen zu werden, da sie zu den
Standartmethoden in der digitalen Bildverarbeitung gehört.
Das Hintergrundbild, das später mit einem Portraitbild tiefengetreu vermischt
werden soll, enthält ggf. zahlreiche Details in unterschiedlichen Tiefen, die
u. U. aus Nachbarbildern nicht eindeutig rekonstruierbar sind. Man kann aber
davon ausgehen, daß in diesem Fall alle Perspektiven von einer Kamera auf
genommen wurden, die sich horizontal und geradlinig bewegt hat. Es brau
chen dann keine Zwischenperspektiven rekonstruiert werden. Dennoch
müssen für alle Pixel die Tiefenpositionen ermittelt und hinzugefügt werden,
damit eine tiefengetreue Vermischung mit anderen Bildern möglich ist. Da
aber eine ganze Sequenz benachbarter Bilder vorhanden ist, ist es möglich,
über mehrere Perspektiven hinweg eine Bewegung von Konturen zu detek
tieren. Aus der über eine gewisse Anzahl benachbarter Bildern ermittelten
Geschwindigkeit kann dann unmittelbar auf die Tiefenposition dieser Kontur
geschlossen werden. Bleibt dennoch eine Region übrig, in der sich keine
Konturen befinden und gleichbleibende Farben auftreten und in der auch
keine Bewegung erkennbar ist, so muß man zusätzlich die Annahme treffen,
daß eine Fläche, die von einer sich bewegenden Kontur umhüllt wird, sich
genauso schnell bewegt wie die Kontur, d. h. sich in der gleichen Tiefenposi
tion befindet.
Auf diese Weise wird es dann möglich, daß jedes RGB-Pixel in jeder Per
spektive mit einer Tiefenangabe gekennzeichnet werden kann. Darüberhin
aus wird es per Software-Tools möglich sein, auch Tiefenpositionen von
Gegenständen zu verändern. Legt man Schnitte durch die so erfaßte dreidi
mensionale Landschaft, so läßt sich auf diese Weise testen, ob die Ergeb
nisse mit den gewünschten oder tatsächlichen übereinstimmen.
Objektpunkte oder Objektregionen, die von zwei Kamerapositionen aus ein
deutig identifiziert werden konnten in der Tiefenposition, können auf Zwi
schenperspektiven dargestellt werden durch die im Folgenden beschriebene
Interpolation. Wie in Fig. 6 gezeigt, sei ein Punkt des Objektes eindeutig
identifiziert auf den beiden Kameras K1 und K2, deren lokale Koordinaten u1
und v1 bzw. u2 und v2 eine Ebene aufspannen, die parallel zu der Bildebene
ist. Darüberhinaus werde ohne Beschränkung der Allgemeinheit angenom
men, daß das Raster in den Koordinaten u1 bzw u2 übereinstimmt mit dem
Raster bzw. dem Pitchabstand der Linsenrasterscheibe. Es sind also alle
1280 Pixel auf den lokalen Koordinaten u1 und u2 wiederzufinden. Ist die
von u1 und u2 aufgespannte Ebene nicht parallel zu der Ebene der Linsenra
sterscheibe, so muß ein linearer Streckungsfaktor berücksichtigt werden. Es
werde nun angenommen, daß in der Kamera 1 ein Bild der Perspektive 1 mit
der richtigen Rasterung aufgezeichnet ist. Das Gleiche werde angenommen
für die Perspektive 6 des Objektes, die in der Kamera 2 in der richtigen
Rasterung aufgezeichnet sei. Dann können die RGB Werte inklusive der
ermittelten Tiefenpositionen in die Perspektiven 1 bzw 6 eingetragen wer
den, die in der Regel 1280 Pixel horizontal enthalten und 128 Perspektiven
je Pixel. Die Objekte im Raum sind also jetzt abzubilden auf die Bildebene,
die sich im Brennpunkt der Zylinderlinsen befindet und der Ebene z = ZB sich
befindet. Ist ein identifizierter Objektpunkt O1 in den Perspektiven P1 und
P6 der Kameras K1 und K2 bekannt mit der zugehörigen Tiefenposition und
den Farbwerten, so kann die in der Ebene z = 0 gezeigte Rasterung für die
Perspektiven P2, P3, P4 und P5 durchlaufen werden. Es können Strahlen
zu dem Objektpunkt u1 gezogen werden und die Durchstoßpunkte durch die
Bildebene ZB genau berechnet werden. Das auf der Bildebene ZB angelegte
Pitchraster kennzeichnet die Zugehörigkeit zu bestimmten Pixeln. Es kann
nun vorkommen, daß die Strahlen von benachbarten Perspektiven zu dem
Objektpunkt in die gleiche Pixelspalte fallen. Dann sind diese auch in die
zugehörigen Perspektiven der gleichen Pixelspalte einzutragen. Stehen dort
an dieser Position bereits Werte mit der gleichen Tiefenposition, so wird
hieraus ein Mittelwert gebildet. Ist an einer Stelle bereits ein Objektpunkt
mit einer größeren Tiefenposition eingetragen, so wird dieser überschrieben.
Ist ein Objektpunkt eingetragen mit einer kleineren Tiefenposition, so wird
keine Eintragung vorgenommen. Hat der gleiche identifizierte Objektpunkt
O1 in der Kamera 1 einen etwas anderen Farbwert als in der Kamera 2, so
werden diese Farbwerte von der Perspektive 1 bis 6 linear interpoliert.
Wenn die Rasterung für die Perspektiven fein genug ist und die Bildobjekte
sich in der richtigen Position befinden, so wird beim Durchlaufen der ver
schiedenen Perspektiven kein Pixel in den Zwischenpositionen ausgelassen.
Befindet sich jedoch ein Objektpunkt vor der Scheibe, so kann es vorkom
men, daß die Strahlen durch bestimmte Pixel gehen und dazwischen einige
ausgelassen werden. In diesem Falle ist es erforderlich, daß die ausgelasse
nen Pixelpunkte Eintragungen bekommen mit den gleichen Werten, den
gleichen Tiefenpositionen und den gleichen Perspektiven wie sie in den
direkt benachbarten Pixelspalten eingetragen sind. Sind nun alle identifizier
ten Objektpunkte durchlaufen, so sind in sämtlichen Pixeln der Bildebene
(1280 × 1024) 128 verschiedene RGB Werte mit Tiefenpositionen eingetra
gen.
So wie die horizontalen und vertikalen Koordinaten des Bildes quantisiert
sind, ist es auch sinnvoll, die Tiefenpositionen zu quantisieren. Wählt man
beispielsweise für die Kennzeichnung der Tiefenangaben eine 12 bit genaue
Quantisierung, so sind zu unterscheiden Tiefenpositionen zwischen 0 und
4095; dabei ist 0 die Position der Kamera bzw. des später betrachtenden
Auges und die größte Position die gewählte maximale Tiefenposition,
beispielsweise 10 m. Bei der Eintragung der Objektpunkte in die Bildebene,
d. h. in die verschiedenen Perspektiven aller Pixel geht man aus von einer
Anfangseintragung, bei der in jeder Perspektive jeden Pixels die größtmögli
che Tiefenposition eingetragen ist, die von jedem anderen vorkommenden
Objekt einer geringeren Tiefenposition überschrieben werden kann. Auf
diese Art und Weise erhält man für ein Portraitbild alle gewünschten Eintragungen
in die Perspektiven. Ist eine Rundherum-Portraitierung vorgese
hen, so muß man zwischen verschiedenen Darstellungsebenen unterschei
den und nicht parallele Bildebenen und Kameraebenen umrechnen.
Auf Erweiterungen dieses Verfahrens wie es beispielsweise für teiltrans
parente Objekte auftritt, soll an dieser Stelle nicht eingegangen werden. Es
würde dann erforderlich, daß bei einem Pixel bei der gleichen Perspektive
mehrere Eintragungen und Farbwertpositionen vorgesehen werden müßten.
Ein System
mit festem Abstand von zwei Kameras hat den Vorteil, daß man leicht
bewegte Szenen aufzeichnen kann, bei denen jeweils immer die beiden
Perspektiven gleichzeitig aufgenommen werden, die die Augen später auch
sehen. Die dicht nebeneinander liegenden Perspektiven können dann unter
schiedlichen Zeitschlitzen angehören, aber die Augen des Betrachters sehen
zeitsynchrone Aufnahmen. Bei geringfügigen seitlichen Bewegungen des Be
trachters können auch leichte Bewegungen eines Gegenstandes wahrge
nommen werden. Beispielsweise kann ein Portrait, wird das Bild von links
betrachtet, einen ernsten Gesichtsausdruck aufweisen und beim Betrachten
von rechts einen freundlichen. Auch zufällige Bewegungen wie bei
spielsweise Augenzwinkern wirken dann nicht störend. Hingegen würde es
stören, wenn das linke Auge des Betrachters von einer bestimmten Position
ein geschlossenes Auge des Portraits sehen würde und das rechte ein
offenes. Natürlich ist hier der richtige gültige Abstand des Betrachters von
der Oberfläche des Rasterbildes einzuhalten.
Claims (18)
1. Verfahren zur Darstellung eines autostereoskopischen Bildes mittels mehrerer elek
tronischer Kameras (A), eines Computers (B), eines Belichtungsgeräts oder Druckers (C),
eines Rasterglases (1) und einer hinter dem Rasterglas (1) montierbaren, schwarz-weißen,
Rasterpixel aufweisenden Folie (D), wobei in jedes Rasterpixel nebeneinander eine
Vielzahl von Perspektiven geschrieben werden, dadurch gekennzeichnet, daß die Per
spektiven eines einzelnen Objekts (O1, O2) des darzustellenden Bildes separat mit den
Kameras aufgezeichnet werden und daß dann diese Perspektiven und entsprechende,
jedoch ebenfalls separat aufgezeichnete Perspektiven eines weiteren Objekts und/oder
separat aufgezeichnete oder erzeugte Perspektiven eines Hintergrundbildes durch 3D-
gerechte Überlagerung im Computer (B) zum autostereoskopischen Bild zusammengesetzt
werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß jeder Perspektive eine
Tiefenposition zugeordnet wird und bei der 3D-gerechten Überlagerung von Perspektiven
mit unterschiedlichen Tiefenpositionen diejenigen Perspektiven zur Herstellung des
autostereoskopischen Bildes verwendet werden, denen die geringeren Tiefenpositionen
zugeordnet sind.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß den Perspektiven auch
Transparenzmerkmale zugeordnet werden und in dem zusammengesetzten autostereoskopi
schen Bild hinter den Perspektiven mit den geringsten Tiefenpositionen liegende Per
spektiven mit einem Farbanteil berücksichtigt werden.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß die Tiefenpositionen
aus Veränderungen von Objektkonturen benachbarter Perspektiven berechnet werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß bei der
Darstellung des autostereoskopischen Bildes auf einem adaptiven 3D-Monitor ein separat
aufgezeichnetes, dreidimensionales Objekt oder ein Hintergrund einkopiert und mit einem
3D-Cursor wunschgemäß in diesem positioniert wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß das Objekt
(O1, O2) bei der Aufnahme in einem genau definierten, bekannten Raum (31, 32)
positioniert wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß zur
Herstellung des Bildes (6) wesentlich weniger Kameras (K1 bis K5) verwendet werden, als
der Vielzahl der Perspektiven entspricht, und daß die Vielzahl der Perspektiven durch
Verschiebung der Kameras (K1 bis K5) relativ zum Objekt (O1, O2) erhalten wird.
8. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die
verschiedenen Kameras (K1 bis K5), um das zu fotografierende Objekt (O1, O2) herum
kreisförmig verteilt werden.
9. Verfahren nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, daß die
Kameras (K1 bis K5) abschnittsweise bewegt werden und daß nach jedem Bewegungs
abschnitt mit allen Kameras (K1 bis K5) gleichzeitig je eine Aufnahme des Objekts
(O1, O2) gemacht wird.
10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, daß die
Kameras (K1 bis K5) zur Aufzeichnung von Zwischenperspektiven um das aufzuzeichnen
de Objekt (O1, O2) rotieren.
11. Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, daß genau
zwei Kameras (K1, K2) verwendet werden, die einen bestimmten horizontalen Abstand
(Δk) derart aufweisen, daß die jeweils zwei aufgezeichneten Perspektiven denjenigen
entsprechen, die ein Betrachter im Standardabstand bei der Darstellung des autostereosko
pischen Bildes mit dem rechten und linken Auge sieht.
12. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß zur
Herstellung des autostereoskopischen Bildes wesentlich weniger stationär angeordnete
Kameras (K1 bis K5) verwendet werden als der Vielzahl der Perspektiven entspricht, und
daß die Vielzahl der Perspektiven dadurch erhalten wird, daß von den Kameras (K1 bis
K5) nicht lieferbare Perspektiven durch Interpolation der von den Kameras (K1 bis K5)
gelieferten Perspektiven mit dem Grafikcomputer (4) generiert werden.
13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß die Kameras (K1
bis K5) auf einer Kreisbahn um das Objekt (O1, O2) herum angeordnet sind und die
Zwischenperspektiven durch Interpolation im Grafikcomputer (4) unter Anwendung eines
Minimierungs-Algorithmus für kreisförmig angeordnete Kameras (K1 bis K5) generiert
werden.
14. Verfahren nach einem der Ansprüche 1 bis 13 dadurch gekennzeichnet, daß die
Rasterpixel übereinander angeordnete Informationen betreffend Farbe und/oder Helligkeit
in digitaler Form enthalten, wobei diese Informationen in Abhängigkeit von einer beim
Betrachten des autostereoskopischen Bildes verwendeten Farb- und/oder Helligkeitsmaske
(2, 3) gewählt sind.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß jedes
Rasterpixel des Bildes in einem einer einzelnen Farb- und/oder Helligkeitsmaske (2, 3)
zugeordneten Bereich einen mittleren Abschnitt mit neun übereinanderliegenden, schwarz-
weiß codierbaren Pixeln und je einen darüber- und darunterliegenden Abschnitt mit je vier
übereinanderliegenden, schwarz-weiß codierbaren Pixeln aufweist.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß das autostereoskopische
Bild im Bereich von Übergängen zwischen den Abschnitten jeweils nicht codierbare,
schwarze, zum Ausgleich von Montagetoleranzen bestimmte Pixel aufweist.
17. Verfahren nach einem der Ansprüche 15 oder 16, dadurch gekennzeichnet, daß die
Pixel in den Abschnitten jeweils so codiert werden, daß die weiß codierbaren Pixel jeweils
in der Mitte eines Abschnitts und dort direkt übereinander zu liegen kommen.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß der
Bildträger mit zur µm-genauen Positionierung bestimmten, mit entsprechenden Justier
zapfen (11) im Aufzeichnungs- und/oder Betrachtungsgerät zusammenwirkenden Justierlö
chern versehen wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19853608A DE19853608C2 (de) | 1998-11-20 | 1998-11-20 | Verfahren zur Darstellung eines autostereoskopischen Bildes |
EP99119995A EP0994630A3 (de) | 1998-10-15 | 1999-10-13 | Verfahren zur Herstellung von 3D - Fotos |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19853608A DE19853608C2 (de) | 1998-11-20 | 1998-11-20 | Verfahren zur Darstellung eines autostereoskopischen Bildes |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19853608A1 DE19853608A1 (de) | 2000-05-25 |
DE19853608C2 true DE19853608C2 (de) | 2003-06-18 |
Family
ID=7888477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19853608A Expired - Fee Related DE19853608C2 (de) | 1998-10-15 | 1998-11-20 | Verfahren zur Darstellung eines autostereoskopischen Bildes |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19853608C2 (de) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10046786A1 (de) * | 2000-09-19 | 2002-04-18 | 4D Vision Gmbh | Verfahren zur Anpassung von Perspektivansichten an eine räumliche Darstellung und 3D-Kamera |
DE102005058586B4 (de) | 2005-12-04 | 2009-12-17 | Universität Kassel | Wiedergabevorrichtung zur autostereoskopen Wiedergabe von dreidimensionalen Darstellungen |
DE102007056652A1 (de) | 2007-11-24 | 2009-05-28 | Looxis Gmbh | Verfahren und Vorrichtung zur Erzeugung einer dreidimensionalen Nachbildung eines Objektes |
DE102010002462B4 (de) | 2010-03-01 | 2018-08-02 | Bundesdruckerei Gmbh | Kamerasystem zur Aufnahme von Bildern und zur Speicherung von Bildern in einem Dokument |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5937813B2 (ja) * | 1975-12-25 | 1984-09-12 | 凸版印刷株式会社 | リツタイ カヘンインサツブツニモチイル ガソゾウケイセイソウチ |
US5455689A (en) * | 1991-06-27 | 1995-10-03 | Eastman Kodak Company | Electronically interpolated integral photography system |
US5697006A (en) * | 1992-02-06 | 1997-12-09 | Fuji Photo Film Co., Ltd. | Method and apparatus for recording stereoscopic images and lenticular recording material used therefor |
US5696596A (en) * | 1994-07-05 | 1997-12-09 | Canon Kabushiki Kaisha | Electrostatic stereoscopic image recording method and apparatus |
WO1998021619A1 (de) * | 1996-11-08 | 1998-05-22 | Siegbert Hentschke | Stereo-hologramm-display (holdisp) |
-
1998
- 1998-11-20 DE DE19853608A patent/DE19853608C2/de not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5937813B2 (ja) * | 1975-12-25 | 1984-09-12 | 凸版印刷株式会社 | リツタイ カヘンインサツブツニモチイル ガソゾウケイセイソウチ |
US5455689A (en) * | 1991-06-27 | 1995-10-03 | Eastman Kodak Company | Electronically interpolated integral photography system |
US5697006A (en) * | 1992-02-06 | 1997-12-09 | Fuji Photo Film Co., Ltd. | Method and apparatus for recording stereoscopic images and lenticular recording material used therefor |
US5696596A (en) * | 1994-07-05 | 1997-12-09 | Canon Kabushiki Kaisha | Electrostatic stereoscopic image recording method and apparatus |
WO1998021619A1 (de) * | 1996-11-08 | 1998-05-22 | Siegbert Hentschke | Stereo-hologramm-display (holdisp) |
Also Published As
Publication number | Publication date |
---|---|
DE19853608A1 (de) | 2000-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69222695T2 (de) | Autostereoskopisches Fotografie-System mit elektronisch interpolierten Bildern | |
DE69032840T2 (de) | Verfahren und vorrichtung zur erzeugung von dreidimensionalen fernseh- oder anderen multidimensionalen bildern | |
EP2153269B1 (de) | Verfahren zur ausrichtung eines parallaxenbarriereschirms auf einem bildschirm | |
DE69331114T2 (de) | Autostereoskopische Anzeigevorrichtung | |
DE69515522T2 (de) | Dreidimensionales bildformungssystem | |
DE19924096C2 (de) | System zur stereoskopischen Bilddarstellung | |
DE19500315C1 (de) | Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS) | |
WO2005029871A2 (de) | Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit räumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage | |
AT394459B (de) | Verfahren zum gewinnen von bildern zur verwendung beim darstellen eines dreidimensionalen scheinbildes und bildaufzeichnungstraeger, auf dem erste und zweite gruppen von serien derartiger bilder gespeichert sind | |
DE10245611A1 (de) | Vorrichtung zur Anzeige von dreidimensionalen Bildern | |
DE102007047470B3 (de) | Verfahren zur Ausrichtung eines Parallaxenbarriereschirms auf einem Bildschirm | |
DE4312918A1 (de) | Wiedergabeeinrichtung | |
DE19646046C1 (de) | Stereo-Hologramm-Display | |
DE19853608C2 (de) | Verfahren zur Darstellung eines autostereoskopischen Bildes | |
DE19500699A1 (de) | Personen-adaptiver stereoskoper Video-Schirm (PASS) | |
DE102010041870A1 (de) | Verfahren und System zur horizontrichtigen stereoskopischen Bildverarbeitung | |
WO2011032642A1 (de) | Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe | |
DE10340109A1 (de) | Verfahren zur Herstellung eines Mediums zur reellen und virtuellen Wiedergabe von realen oder berechneten dreidimensionalen Anordnungen | |
EP0994630A2 (de) | Verfahren zur Herstellung von 3D - Fotos | |
DE10348618B4 (de) | Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage | |
DE19848936A1 (de) | Verfahren zum Printen ineinandergreifender Streifen von Bildern | |
WO1999009449A1 (de) | Verfahren und anordnung zum herstellen eines räumlich wiedergebbaren bildes | |
DE19512293A1 (de) | Verfahren und Vorrichtung zur Generierung von Raumbildern | |
DE102023109702A1 (de) | Computerimplementiertes Verfahren zum Erzeugen eines verzerrungsoptimierten Panoramabildes und computerlesbares Speichermedium | |
DE10112181A1 (de) | Aufsatz für einen Bildschirm und Bildschirm mit einem derartigen Aufsatz |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |