[go: up one dir, main page]

DE10348618B4 - Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage - Google Patents

Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage Download PDF

Info

Publication number
DE10348618B4
DE10348618B4 DE10348618A DE10348618A DE10348618B4 DE 10348618 B4 DE10348618 B4 DE 10348618B4 DE 10348618 A DE10348618 A DE 10348618A DE 10348618 A DE10348618 A DE 10348618A DE 10348618 B4 DE10348618 B4 DE 10348618B4
Authority
DE
Germany
Prior art keywords
image
virtual
dimensional
depth
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10348618A
Other languages
English (en)
Other versions
DE10348618A1 (de
Inventor
Armin Grasnick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3d Photo Ag Schwechat At
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE10348618A priority Critical patent/DE10348618B4/de
Priority to PCT/EP2004/009480 priority patent/WO2005029871A2/de
Priority to JP2006526536A priority patent/JP2007506167A/ja
Priority to US10/572,025 priority patent/US20070159476A1/en
Priority to EP04764457A priority patent/EP1665815A2/de
Publication of DE10348618A1 publication Critical patent/DE10348618A1/de
Application granted granted Critical
Publication of DE10348618B4 publication Critical patent/DE10348618B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/52Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen aus zweidimensionalen Bilddaten aus Bildern, Bildsequenzen, Videofilmen und dergleichen zweidimensionalen Urbildern, dadurch gekennzeichnet, dass
– auf der Grundlage von aus monokularen Urbilddaten (10) ermittelten Bildinformationen ein auf einer vermutungsbasierten räumlichen Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst (307) erzeugt wird, wobei ein Verfahren zur Kantenerkennung (80) der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes (210) ausgeführt wird, ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt und mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet werden,
– die Urbilddaten auf das virtuelle dreidimensionale Bildgerüst (307) zum Erzeugen eines virtuellen dreidimensionalen Bildmodells (150) angepasst werden, wobei eine entsprechend der virtuellen Tiefenebenen (303, 304, 305, 306, 307) deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepasst wird;
– die...

Description

  • Die Erfindung betrifft ein Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 1 und eine Vorrichtung zur Durchführung des Verfahrens.
  • Dreidimensionale Objekte werden mit monokularen Aufnahmeeinrichtungen nur zweidimensional abgebildet. Das liegt daran, daß diese Objekte von einem einzigen Beobachtungsstandort und unter nur einem Beobachtungswinkel aufgenommen werden. Bei einem derartigen Aufnahmeverfahren wird das räumliche Objekt auf einen Film, einen photovoltaischen Empfänger, insbesondere ein CCD-Array oder eine andere lichtempfindliche Fläche projiziert. Ein räumlicher Eindruck ergibt sich von dem abgebildeten Objekt erst dann, wenn das Objekt von mindestens zwei unterschiedlichen Beobachtungspunkten bzw. unter mindestens zwei verschiedenen Betrachtungswinkeln aufgenommen und einem Betrachter so präsentiert wird, daß die beiden zweidimensionalen monokularen Bilder von beiden Augen getrennt wahrgenommen und in dessen physiologischem Wahrnehmungsapparat zusammengefügt werden. Dazu werden die monokularen Einzelbilder zu einer Raumbildvorlage kombiniert, die unter Verwendung eines dafür geeigneten Abbildungsverfahrens zu einem räumlichen Bildeindruck beim Betrachter führen. Derartige Verfahren werden auch als „Anaglyphentechnik" bezeichnet.
  • Eine für ein solches Verfahren verwendbare Raumbildvorlage kann auf verschiedene Weise vorliegen bzw. erstellt werden. Als einfachstes Beispiel sind hier die bekannten Stereo-Diabetrachter zu erwähnen, bei denen der Betrachter mit je einem Auge je ein in einem verschiedenen Blickwinkel aufgenommenes Bildmotiv betrachtet. Bei einer zweiten Möglichkeit wird das unter dem ersten Blickwinkel erzeugte Bild mit einer ersten Farbe und das andere unter dem zweiten Blickwinkel fotografierte Bild mit einer zweiten Farbe eingefärbt. Beide Bilder werden mit einer dem natürlichen Blickwinkelunterschied der menschlichen Augen oder dem Blickwinkelunterschied des Kamerasystems entsprechenden Versetzung zum Erstellen einer Raumbildvorlage übereinander gedruckt oder übereinander projiziert, wobei der Betrachter eine Zweifarbenbrille zum Betrachten der Bildvorlage benutzt. Dabei wird die jeweils andere Blickwinkelkomponente durch das entsprechend gefärbte Brillenglas ausgefiltert. Jedes Auge des Betrachters erhält somit ein entsprechend des unterschiedlichen Blickwinkels differierendes Bild, wobei bei dem Betrachter ein räumlicher Eindruck der Bildvorlage entsteht. Ein derartiges Verfahren ist vorteilhaft, wenn Daten aus einer Stereokamera in Echtzeit und unter geringem apparativem Aufwand übertragen und dargestellt werden sollen. Darüber hinaus werden auch simulierte räumliche Abbildungen mit einem derartigen Verfahren zum Erzeugen einer Raumbildvorlage dargestellt, wobei der Betrachter einen besseren Eindruck komplizierter räumlicher. Strukturen, beispielsweise komplizierter simulierter Molekülstrukturen und dergleichen erhalten kann.
  • Weiterhin können subtiler wirkende Mechanismen des physiologischen Wahrnehmungsapparates zum Erzeugen der Raumbildvorlage angewendet werden. So ist beispielsweise bekannt, daß zwei kurz innerhalb der Reaktionszeit nacheinander wahrgenommene Bilder zu einem subjektiven Gesamteindruck zusammengeführt werden. Sendet man demnach als kombinierte Raumbildvorlage kurz hintereinander zwei Bildinformationen, die jeweils aus Aufnahmen bestehen, die aus dem ersten, bzw. dem zweiten Betrachtungswinkel gemacht wurden, fügen diese sich in der Wahrnehmung des Betrachters zu einem subjektiven räumlichen Gesamteindruck unter Verwendung einer Shutterbrille zusammen.
  • Allen erwähnten Verfahren ist jedoch gemeinsam; daß mindestens eine binokulare Aufnahme des räumlichen Bildmotivs vorab vorliegen muß. Das heißt, daß mindestens zwei aus unterschiedlichen Betrachtungswinkeln gemachte Aufnahmen von vornherein vorhanden sein oder (wie zum Beispiel bei Zeichnungen) von Anfang an erzeugt wer den müssen. Bilder oder Filme, Videosequenzen und dergleichen Abbildungen, die von vornherein monokular erzeugt wurden und daher nur monokulare Bildinformationen tragen, sind demnach nicht für eine räumliche Darstellung des Objektes verwendbar.
  • Ein beispielsweise mit einem monokularen Fotoapparat aufgenommenes Foto ist eine zweidimensionale Projektion ohne Raumtiefe. Die Information über die Raumtiefe ist durch die monokulare Abbildung unwiederbringlich verlorengegangen und muss vom Betrachter aufgrund von Erfahrungswerten in das Bild hinein interpretiert werden.
  • Verständlicherweise ergibt sich dabei aber keine echte räumliche Abbildung mit Tiefenwirkung.
  • Dies ist insofern nachteilig, als daß bei einer ganzen Reihe derartiger zweidimensionaler monokular erzeugter Aufnahmen ein beträchtlicher Teil der ursprünglichen Wirkung und der Information des Bildmotivs verlorengeht. Der Betrachter muß sie sich hinzudenken oder versuchen, dies anderen Betrachtern zu erklären, wobei natürlich der ursprüngliche Eindruck der Räumlichkeit mit keinem räumlichen Abbildungsverfahren der oben genannten Beispiele zurück zu gewinnen ist.
  • Aus der US 6,069,608 A ist ein Verfahren zur Abbildung unterschiedlicher Bildinformationen in Form eines zusätzlichen virtuellen Bildes im Sichtbereich eines Benutzers, das insbesondere für eine stereoskopische Bildwiedergabe angewendet werden kann, vorbekannt. Diese unterschiedlichen Bildinformationen sind aber bei diesem Stand der Technik bereits in irgendeiner geeigneten Form vorhanden, während dies beim zu schaffenden Verfahren nicht der Fall ist. Aus K. Mütze et al.: ABC der Optik, Verlag Werner Dausien, 1972, Seiten 854–857 erschließt sich dem Fachmann die physikalisch und physiologisch begründete Tatsache, dass es von einem flächigen Bild keine stereoskopische Betrachtung geben kann.
  • Aus dem Vorgenannten ist es daher Aufgabe der Erfindung, eine weiterentwickeltes Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen aus zweidimensionalen Bilddaten aus Bildern, Bildsequenzen, Videofilmen und dergleichen Urbildern anzugeben, welches über ein einfaches Nachbearbeiten der Bildmotive der Urbilder einen Datensatz bereitstellt, der bei seiner Wiedergabe einen dreidimensionalen Eindruck erzeugt.
  • Die Lösung der Aufgabe der Erfindung erfolgt mit einem Verfahren gemäß der Lehre nach Patentanspruch 1, wobei Anspruch 13 eine Vorrichtung zum Anzeigen einer Raumbildvorlage, geschaffen nach dem erfindungsgemäßen Verfahren, umfasst.
  • Die Unteransprüche beziehen sich auf vorteilhafte verfahrens- und vorrichtungsseitige Ausgestaltungen.
  • Bei der folgenden Beschreibung wird unter dem Begriff des „Urbildes" die anfangs gegebene monokular angefertigte zweidimensionale Abbildung verstanden. Es ist unmittelbar einsichtig, daß eine Anwendung des nachfolgend beschriebenen erfindungsgemäßen Verfahrens auch auf Sequenzen von derartigen Urbildern anwendbar ist und daher ohne weiteres auch für bewegte Bilder, insbesondere Video- oder Filmaufnah men, verwendet werden kann, sofern diese aus einer Serie aufeinander abfolgender Abbildungen bestehen oder in diese überführt werden können.
  • Erfindungsgemäß wird auf der Grundlage von aus monokularen Urbilddaten ermittelten Bildinformationen abgebildeter Objekte ein auf einer vermutungsbasierten Bildtiefenabstufung. beruhendes virtuelles dreidimensionales Bildgerüst erzeugt. Die Urbilddaten werden auf das virtuelle dreidimensionale Bildgerüst zum Erzeugen eines virtuellen dreidimensionalen Bildmodells angepaßt. Die Daten des virtuellen dreidimensionalen Bildmodells werden als Vorlage zum Erstellen der Raumbildvorlage für das Abbildungsverfahren mit räumlicher Tiefenwirkung verwendet.
  • Es werden erfindungsgemäß somit zunächst die auf der zweidimensionalen Abbildung abgebildeten Objekte ermittelt. Dann wird diesen Objekten jeweils eine Vermutung über deren Raumtiefe zugeordnet. Es entsteht ein virtuelles dreidimensionales Modell, wobei die ursprünglichen Bilddaten der zweidimensionalen Abbildung auf dieses virtuelle dreidimensionale Modell angepaßt werden. Dieses virtuelle dreidimensionale Modell bildet nun ein virtuelles Objekt, dessen Daten den Ausgangspunkt zum Erzeugen der Raumbildvorlage darstellen.
  • Auf den monokularen Urbilddaten wird zum Ermitteln der Bildinformation ein Verfahren zu einer Kantenerkennung der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes ausgeführt. Dabei werden bei der vermutungsbasierten Bildtiefenabstufung Urbildareale aufgrund eines ermittelten Kantenreichtums verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder Vordergrund zugeordnet.
  • Hier wird die Erkenntnis genutzt, daß detailreiche und damit kantenreiche Objekte im allgemeinen zu einer anderen Bildtiefe und damit Tiefenebene gehören, als detailarme und damit auch kantenarme Objekte. Der Schritt der Kantenerkennung sortiert demnach Bestandteile des Urbilds aus, von denen auszugehen ist, dass sich diese im Hintergrund des Bildes befinden und separiert sie von denen, die im Vordergrund oder einer weiteren Tiefenebene zu vermuten sind.
  • Bei einer weiteren Vorgehensweise zum Ermitteln der Bildinformation wird ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt. Dabei wird bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet.
  • Dabei wird hier die Erfahrungstatsache angewandt, daß bestimmte Farben oder Farbkombinationen bei gewissen Bildmotiven bevorzugt in einer anderen Tiefenebene auftreten, als andere Farben oder Farbkombinationen. Beispiele sind hierfür Blau als eine typische Hintergrundfarbe bei Landschaften einerseits und Rot oder Grün als typische Vordergrundfarben des abgebildeten Motivs andererseits.
  • Das Verfahren zur Kantenerkennung und das Verfahren zum Ermitteln der Farbinformation können sowohl einzeln oder in Kombination miteinander angewendet werden, wobei vor allem eine kombinierte Anwendung aus Kantenerkennung und Ermitteln der Farbinformation weitere Differenzierungsmöglichkeiten der Urbilddaten, insbesondere ein feineres Festlegen weiterer Tiefenebenen erlaubt.
  • Auf dem kantenmarkierten Bild wird in einer zweckmäßigen Ausgestaltung ein Weichzeichnungsverfahren zur Verstärkung und zum Vereinheitlichen eines kantenreichen Urbildareals angewendet. Damit werden einerseits mögliche Fehler bei der Kantenerkennung ausgeglichen und andererseits nebeneinander liegende, nicht zufällig vorgegebene Strukturen verstärkt. Optional können die Werte des kantenmarkierten Bildes zusätzlich tonwertkorrigiert werden.
  • Auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes, wird eine auf dem Tonwert eines Bildpunktes basierende Zuordnung eines betreffenden Bildabschnittes zu einer Tiefenebene ausgeführt. Die Strukturen des kantenmarkierten Bildes, das weichgezeichnet und optional tonwertkorrigiert ist, werden nun je nach ihrem Tonwert einzelnen definierten Tiefenebenen zugeordnet. Das kantenmarkierte, weichgezeichnete und optional tonwertkorrigierte Bild bildet daher die Grundlage für eine eindeutige Zuweisung der einzelnen Bildstrukturen zu den Tiefenebenen, wie beispielsweise dem definierten virtuellen Hintergrund, einer virtuellen Bildebene oder einem virtuellen Vordergrund.
  • Bei einer dabei ausgeführten Fixpunktdefinition erfolgt eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert. Damit wird ein virtueller Drehpunkt für die später zu erzeugenden Einzelansichten festgelegt. Dabei bildet der ausgewählte Farb- und/oder Tonwert einen Referenzwert, der einer virtuellen Bildebene zugeordnet wird und somit einen virtuellen Tiefenhintergrund von einem virtuell aus der Bildebene herausragenden Vordergrund trennt.
  • Die Zuweisung einer virtuellen Tiefenebene kann auf verschiedene Weise erfolgen. Die bereits dargestellten Verfahrensschritte legen zweckmäßigerweise eine Zuordnung einer Tiefenebene an einen jeweils vorgegebenen Farb- und/oder Helligkeitswert eines Bildpixels nahe. Objekte mit Bildpixeln, die somit gleiche Farb- und/oder Helligkeitswerte aufweisen, werden somit einer Tiefenebene zugeordnet.
  • Alternativ dazu besteht auch die Möglichkeit, willkührlich festgelegte Bildabschnitte, insbesondere einen Bildrand und/oder die Bildmitte, einer virtuellen Tiefenebene zuzuordnen. Damit wird insbesondere eine virtuelle „Wölbung", „Verspannung", „Kippung" und dergleichen dreidimensionale Bildeffekte erreicht.
  • Zum Erzeugen des virtuellen dreidimensionalen Bildmodells wird das virtuelle dreidimensionale Bildgerüst als eine entsprechend der virtuellen Tiefenebenen deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt. Die Netzstruktur bildet dabei eine Art virtuelle dreidimensionale „Matrize" oder „Profilform", während das zweidimensionale Urbild eine Art „elastisches Tuch" darstellt, das über die Matrize gespannt und in die Matrize in einer Art virtuellem „Tiefziehverfahren" hineingepreßt wird. Das Ergebnis ist ein virtuelles dreidimensionales Bildmodell mit den Bildinformationen des zweidimensionalen Urbilds und der zusätzlich dem Urbild aufgeprägten „virtuellen Tiefziehstruktur" der virtuellen dreidimensionelen Matrize.
  • Von diesem dreidimensionalen Bildmodell können virtuelle binokulare oder auch multiokulare Ansichten abgeleitet werden. Das geschieht dadurch, indem von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Bobachtungswinkeln eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenen Einzelbildern erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes entsprechend des virtuellen Beobachtungswinkels verschoben und/oder verzerrt werden. Das virtuelle dreidimensionale Bildmodell dient somit als ein virtuelles räumliches Objekt, das virtuell binokular oder multiokular betrachtet wird, wobei dabei virtuelle Ansichten gewonnen werden, die sich entsprechend den Beobachtungswinkeln unterscheiden.
  • Diese virtuellen Einzelbilder werden nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage kombiniert. Dabei werden die virtuellen Einzelbilder wie real binokular oder multiokular aufgenommene Einzelbilder behandelt, die nun für ein dreidimensionales Darstellungsverfahren geeignet aufbereitet und kombiniert werden. Damit liegt eine virtuell gewonnene binokulare oder multiokulare Bildinformation vor, die für jedes beliebige räumliche Abbildungsverfahren verwendet werden kann.
  • Zum Erstellen der Raumbildvorlage wird bei einer Ausführungsform des Verfahrens eine Bildbearbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln ausgeführt und die so erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters angezeigt.
  • Dabei werden die Bildstrukturen, die in dem virtuellen dreidimensionalen Bildmodell gewissen Tiefenebenen zugeordnet werden, so verändert, dass diese bei Anzeige der so erzeugten Raumbildvorlage einen ausreichenden Akkomodationsreiz für das betrachtende menschliche Auge bieten. Die so hervorgehobenen Bildstrukturen werden mittels der optischen Abbildung durch das Linsenraster entweder vor oder hinter der gegebenen Bildebene wahrgenommen und führen somit zu einem räumlichen Eindruck beim Betrachten des Bildes. Dieses Verfahren benötigt nur eine relativ einfach gestaltete Raumbildvorlage in Verbindung mit einer einfachen Ausführung des Abbildungsverfahrens mit räumlicher Tiefenwirkung.
  • Das zweidimensionale Urbild kann auch direkt ohne eine Bildbearbeitung durch das monofokale Linsenraster angezeigt werden. Das zweidimensionale Urbild ist somit sofort als Raumbildvorlage für eine Anzeige durch das monofokale Linsenraster verwendbar. Eine derartige Vorgehensweise ist besonders dann zweckmäßig, wenn einfache Bildstrukturen vor einem homogen strukturierten Hintergrund, insbesondere Zeichen vor einem einheitlich ausgebildeten Texthintergrund, mit Tiefenwirkung anzuzeigen sind. Der durch die abbildene Wirkung des monofokalen Linsenrasters erzielte Ackomodationsreiz für das betrachtende Auge bewirkt dann einen Tiefeneffekt, wobei das Urbild an sich für eine derartige Anzeige nicht vorher aufbereitet werden muß.
  • Eine Vorrichtung zum Anzeigen einer Raumbildvorlage ist durch eine zweidimensionale Raumbildvorlage und ein über der Raumbildvorlage angeordnetes monofokales Linsenraster gekennzeichnet. Das monofokale Linsenraster bildet hierbei Bereiche der Raumbildvorlage ab und bewirkt einen entsprechenden Akkomodationsreiz im betrachtenden Auge.
  • Die zweidimensionale Bildvorlage ist dazu zweckmäßigerweise aus einem Mosaik aus der Rasterstruktur des Linsenrasters zugeordneten Bildabschnitten ausgeführt, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein zugehöriges Linsenelement des monofokalen Linsenrasters ist. Die zweidimensionale Bildvorlage ist demnach in eine Gesamtheit einzelner Bildbereiche aufgeteilt, die jeweils durch ein Linsenelement angezeigt werden.
  • Bei dieser Vorrichtung sind prinzipiell zwei Ausführungsformen der Bildvorlage und insbesondere der Bildbereiche möglich. Bei einer ersten Ausführungsform sind die Bildabschnitte im wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage des Urbildes. Das heißt, dass bei dieser Ausführungsform das im wesentlichen unveränderte zweidimensionale Bild die Raumbildvorlage für das Linsenraster bildet. Bei dieser Ausführungsform wird somit, abgesehen von Größenänderungen oder Skalierungen des gesamten Bildes, auf eine Bildbearbeitung einzelner Bildbereiche verzichtet.
  • Bei einer weiteren Ausführungsform sind die Bildabschnitte zur Kompensation der Abbildungswirkungen des Linsenrasters skaliert und/oder gespiegelt und/oder gedreht. Dadurch wird eine verbesserte Bildqualität erreicht, wobei allerdings der Aufwand für die Erstellung der Raumbildvorlage zunimmt.
  • Die zweidimensionale Bildvorlage ist insbesondere ein auf einem Display erzeugtes Bild, während das Linsenraster auf der Oberfläche des Displays befestigt ist. Das Linsenraster wird somit auf einem vorab vorhandenen Display, beispielsweise einem Röhren- oder Flachbildschirm, an einer geeigneten Stelle angebracht und befindet sich somit über dem auf dem Display angezeigten Bild. Diese Anordnung läßt sich in sehr einfacher Weise verwirklichen.
  • In einer ersten Ausführungsform ist das Linsenraster als eine rasterartige, auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt. Die Verwendung von Fresnel-Linsen gewährleistet eine flache und einfache Gestaltung des Linsenrasters, wobei die für Fresnel-Linsen typischen Rillenstrukturen in der nach dem Stand der Technik bekannten Weise in ein durchsichtiges Kunststoffmaterial, insbesondere eine Kunststofffolie eingearbeitet werden können.
  • In einer zweiten Ausführungsform ist das Linsenraster als eine rasterartige, insbesondere flexible, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt. Eine Zonenplatte ist ein konzentrisches System aus hellen und dunklen Ringen, die durch Lichtinterferenz eine Bündelung des hindurchlaufenden Lichtes bewirken und damit eine abbildende Wirkung ermöglichen. Eine derartige Ausführungsform ist durch ein Bedrucken einer durchsichtigen flexiblen Folie in aufwandsarmer und kostengünstiger Weise herstellbar.
  • Bei einer dritten Ausführungsform ist das Linsenraster auch als eine Anordnung konventionell geformter Konvexlinsen möglich, wobei allerdings die Dicke der gesamten Anordnung und damit auch deren Materialverbrauch zunimmt.
  • Das Verfahren und die Vorrichtung sollen im Folgenden anhand von Ausführungsbeispielen näher erläutert werden. Zur Verdeutlichung dienen die angefügten Figuren. Es werden für gleiche oder gleich wirkende Verfahrensschritte und Verfahrensbestandteile die gleichen Bezugszeichen verwendet. Es zeigt:
  • 1 einen ersten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens,
  • 2 einen beispielhaften Ablaufplan einer Kantenerkennung,
  • 3 einen zweiten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens,
  • 4 ein beispielhaftes Auswahlmenü zum Ausführen der Kantenerkennung,
  • 5a ein beispielhaftes Urbild,
  • 5b ein beispielhaftes kantenmarkiertes Bild als Ergebnis einer auf dem beispielhaften Urbild aus 5a ausgeführten Kantenerkennung,
  • 6a ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach 5b ausgeführten Weichzeichnung,
  • 6b ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach 6a ausgeführten Tonwertkorrektur,
  • 7a ein beispielhaftes Auswahlmenü für eine Fixpunktdefinition,
  • 7b ein beispielhaftes fixpunktdefiniertes Bild,
  • 8a ein schematisches Beispiel für graphische Objekte in einem schematischen zweidimensionalen Urbild,
  • 8b ein schematisches Beispiel einer Tiefenebenenzuordnung der graphischen Objekte aus 8a und einer Erzeugung eines virtuellen dreidimensionalen Bild modells entlang beispielhafter Schnitte entlang der Linien A-A und B-B aus 8a,
  • 9a ein schematisches Beispiel einer virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie A-A aus den 8a und 8b,
  • 9b ein schematisches Beispiel einer beispielhaften virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie B-B aus den 8a und 8b,
  • 10 ein schematisches Beispiel einer virtuellen Einzelbilderzeugung aus einem beispielhaften Betrachtungswinkel entlang der beispielhaften Linie A-A nach 9a,
  • 11a eine Reihe beispielhafter virtueller Einzelbilder unterschiedlicher Betrachtungswinkel unter Verwendung des Urbildes aus 5a,
  • 11b eine beispielhafte Kombination der in der 11a gezeigten virtuellen Einzelbilder in einer beispielhaften Raumbildvorlage für ein Abbildungsverfahren mit zusätzlicher Tiefenwirkung,
  • 12a, b beispielhafte Darstellungen einer zweidimensionalen Bildvorlage und eines darüber befindlichen monofokalen Linsenrasters,
  • 13a–c beispielhafte Darstellungen einer Abbildung eines zweidimensionalen Bildabschnittes mittels des monofokalen Linsenrasters der vorhergehenden Abbildungen.
  • Die 1 und 3 zeigen in zwei Teilen einen beispielhaften schematischen Ablaufplan des Verfahrens. 2 erläutert ein Kantenerkennungsverfahren in einem detaillierteren Ablaufplan. Die 4 bis 11b zeigen beispielhafte Resultate und weitere Einzelheiten des in den Ablaufplänen erläuterten erfindungsgemäßen Verfahrens.
  • Den Ausgangspunkt des Verfahrens bildet eine Menge von Urbilddaten 10 eines vorgegebenen zweidimensionalen, zweckmäßigerweise digitalisierten, Urbildes. Sofern das Urbild ein Einzelbild als Bestandteil einer Bildsequenz oder eines digitalisiert vorliegenden Films ist, ist bei der nachfolgenden Beschreibung davon auszugehen, daß alle weiteren Einzelbilder der Bildsequenz in einer dem Einzelbild entsprechenden Weise verarbeitet werden können. Daher ist das im folgenden beispielhaft beschriebene Verfahren auch für Bildsequenzen, Filme und dergleichen verwendbar.
  • Zweckmäßigerweise wird davon ausgegangen, daß die Urbilddaten 10 in einer Bilddatei, einer digitalen Speichereinrichtung oder einer vergleichbaren Speichereinheit vorliegen. Diese Daten können durch die üblichen Mittel zum Erzeugen digitalisierter Bilddaten, insbesondere durch einen bekannten Scan-Vorgang, eine Digitalfotografie, eine digitalisierte Videoinformation und dergleichen weitere bekannte Bildgewinnungsverfahren erzeugt werden. Dies schließt insbesondere auch Bilddaten ein, die unter der Verwendung sogenannter Frame Grabber aus Video- bzw. Filmsequenzen gewonnen wurden. Als Datenformate sind prinzipiell alle bekannten Bildformate, insbesondere das BMP-, JPEG-, PNG-, TGA-, TIFF- oder EPS-Format in allen jeweiligen Versionen verwendbar. Obwohl bei den nachfolgend beschriebenen Ausführungsbeispielen auf Figuren Bezug genommen wird, die aus Darstellungsgründen schwarz-weiß, bzw. in Grauwerten abgebildet sind, können die Urbilddaten ohne weiteres Farbinformationen beinhalten.
  • Die Urbilddaten 10 werden in einem Einleseschritt 20 in einen Arbeitsspeicher zum Ausführen des Verfahrens geladen. In einem Verfahrensschritt eines Anpassens 30 werden zunächst die Urbilddaten für eine optimale Verfahrensausführung angepaßt. Das Anpassen 30 der Bildeigenschaften umfaßt mindestens ein Verändern der Bildgröße und des Farbmodells des Bildes. Kleinere Bilder werden in der Regel dann bevorzugt, wenn die Rechenzeit des Verfahrens zu minimieren ist. Eine Bildgrößenänderung kann jedoch auch eine mögliche Fehlerquelle für das erfindungsgemäße Verfahren sein. Als anzupassendes Farbmodell können prinzipiell alle derzeit gebräuchlichen Farbmodelle, insbesondere RGB- und CMYK- oder Graustufenmodelle, aber auch Lab-, Index- bzw. Duplex-Modelle je nach Erfordernis verwendet werden.
  • Für die weitere Verarbeitung werden die angepaßten Bilddaten in einem Schritt 40 für einen wiederholten Zugriff zwischengespeichert. Die zwischengespeicherten Bilddaten 50 bilden die Grundlage im wesentlichen aller nachfolgenden Datenoperationen.
  • In Abhängigkeit von dem vermuteten räumlichen Bildaufbau, d.h. der vermuteten Abstufung der Tiefenebenen im Urbild, folgt nun optional unter einem Zugriff auf die zwischengespeicherten Bilddaten 50 entweder eine Änderung des Farbkanals/der Farbverteilung 60 oder eine Überführung der Bilddaten in ein grauwertabgestuftes Bild mittels einer Grauwertabstufung 70. Die Grauwertabstufung 70 ist vor allem dann vorteilhaft, wenn davon auszugehen ist, daß vorwiegend den auf dem Bild dargestellten Objektkonturen eine Tiefeninformation zuzuordnen ist. In diesem Fall sind alle Farbinformationen des Bildes für eine Tiefeninterpretation des Urbildes gleich relevant und können demnach in gleicher Weise in Grauwerte überführt werden. Eine Abwandlung des Farbkanals bzw. der Farbverteilung in den Bilddaten ist dann zweckmäßig, wenn anzunehmen ist, daß im wesentlichen ein Farbkanal Träger der interpretierten Tiefeninformation ist und daher für die folgende Bearbeitung besonders hervorzuheben bzw. zu berücksichtigen ist. Bei der hier gegebenen beispielhaften Beschreibung des Verfahrensablaufs wird auch aus Gründen der besseren Darstellung insbesondere in Hinblick auf die Figuren davon ausgegangen, daß die zwischengespeicherten Bilddaten 50 unabhängig von ihren Farbwerten in Grauwerte umgewandelt werden, wobei die Farbinformation unverändert bleibt.
  • Im weiteren Verfahrensverlauf schließt sich eine Kantenerkennung 80 an. Dabei wird von der Annahme ausgegangen, daß die in das zweidimensionale Urbild hinein interpretierten Tiefenebenen vor allem durch in die in dem Bildmotiv vorhandenen Objekte definiert sind. Beispielsweise kann davon ausgegangen werden, dass reich strukturierte und damit stark durch Konturen und somit kantenartigen Strukturen geprägte Objekte vorwiegend im Vordergrund des Bildes vorhanden sind und konturarme, verwaschene und somit kantenarme Objekte den Bildhintergrund bilden. Das Kantenerkennungsverfahren 80 wird ausgeführt, um die unterschiedlichen Areale des Urbildes, die aufgrund ihrer Strukturierung zu verschiedenen Tiefenebenen gehören, eindeutig zu identifizieren und voneinander möglichst eindeutig zu unterscheiden.
  • 2 stellt einen schematischen und beispielhaften Ablaufplan zur Kantenerkennung dar. 4 zeigt in Verbindung damit ein beispielhaftes Eingabemenü 89 zur Festlegung der durchzuführenden Veränderungen an den Helligkeitswerten eines zentralen Pixels und einer festgelegten Pixelumgebung. Die durch ihren Grauwert definierten Bildpixel 81 werden in einem Schleifenprozeß fortlaufend bearbeitet. Zunächst erfolgt eine Auswahl 82 eines Pixels und ein Einlesen dessen Helligkeitswertes 83. Dieser Helligkeitswert wird mit einem möglichst großen positiven Wert (in dem hier dargestellten Beispiel mit dem willkürlichen Wert +10) multipliziert, wodurch ein sehr heller Bildpixel 85 erzeugt wird. Ein Helligkeitswert eines jeweils rechts davon liegenden Pixels wird dagegen mit einem möglichst stark negativen Wert (in dem hier dargestellten Beispiel mit –10) in einem Schritt 86 multipliziert, wodurch ein sehr dunkler Pixel 87 erzeugt wird. Dann wird in einem Schritt 88 der nächste Pixel eingelesen. Das Resultat der Kantenerkennung ist ein kantenmarkiertes Bild. Dort, wo das ursprüngliche Bild einen großen Struktur- und damit Kantenreichtum zeigt, bestehen die nunmehr gegebenen kantenmarkierten Bilddaten aus einer Struktur sehr heller bzw. sehr dunkler Pixel, während strukturarme und daher kontur- und kantenarme Bildbereiche eine einheitliche dunkle Färbung aufweisen. Die Struktur der abwechselnd sehr hellen und sehr dunklen Pixel und des damit markierten Objekts weist demnach einen höheren durchschnittlichen Helligkeitswert auf, als ein Areal durchgängig dunkler Pixel.
  • Nebeneinander liegende Strukturen werden nachfolgend mittels eines als „Weichzeichnung" bezeichneten Verfahrensschrittes 90 verstärkt. Dabei werden die Helligkeitswerte einer bestimmten ausgewählten Pixelmenge im kantenmarkierten Bild nach einem bestimmten Algorithmus Bemittelt und den Pixeln der ausgewählten Menge zugewiesen. Bewährt hat sich hier insbesondere ein Gaussches Weichzeichnungsverfahren. Im weichgezeichneten kantenmarkierten Bild heben sich die Objektstrukturen als eine hellere Pixelmenge vom dem übrigen Bilddteil ab und ermöglichen eine Identifizierung eines einheitlichen Objektes.
  • Gegebenenfalls kann anschließend in einem Schritt 100 eine Tonwertkorrektur des kantenmarkierten weichgezeichneten Bildes erfolgen. Dabei werden vorzugsweise die Tonwerte der Bildpunkte so korrigiert, dass sich ein möglichst deutlicher Kontrast zwischen der Objektstruktur und dem als Hintergrund des Bildes definierten Rest ergibt.
  • Der nächste Verfahrensschritt ist durch eine Fixpunktfestlegung 110 bezeichnet. Bei diesem Schritt werden die Farb- und/oder Grauwerte des kantenmarkierten weichgezeichneten Bildes auf einen gewissen Wert so begrenzt, dass de facto der virtuelle Drehpunkt der zu erzeugenden virtuellen Einzelansichten definiert wird. Die Fixpunktfestlegung 110 definiert mit anderen Worten die Objekte oder Strukturen, die virtuell als vor oder hinter der Bildoberfläche gelegen angenommen und später so in ihrer Tiefenwirkung abgebildet werden sollen.
  • Weiterhin können optional in einem Verfahrensschritt 120 weitere Fixpunktoptionen berücksichtigt werden. So kann beispielsweise eine erste Vermutung angewendet werden, dass größere blaue Flächen vorwiegend einen Hintergrund (blauer Himmer, Wasser usw.) bilden, während kleinere, scharf umgrenzte und farblich hervorstechende Objekte den Vordergrund des Bildes bilden. Ebenso können gewissen Farbwerten gewisse virtuelle Tiefenebenen von von Beginn an zugeordnet werden. So können zum Beispiel Farbwerte, die einer Gesichtsfarbe entsprechen, einer virtuellen Tiefenebene zugeordnet werden, die einer mittleren Bildtiefe entspricht. Ebenso können definierte Bildabschnitte, wie zum Beispiel der Bildrand oder die Bildmitte gewissen Tiefenebenen, zum Beispiel dem Vordergrund oder dem Hintergrund zugeordnet werden, wobei eine „Vorspannung" oder „Wölbung" des später erzeugten räumlichen Bildes erzeugt werden kann.
  • Durch die so erzeugten Abstufungen der virtuellen Tiefenebenen wird ein virtuelles dreidimensionales Bildgerüst erzeugt, die als eine Verzerrungsmaske oder „Displacement-Map" dient und in Form einer Graustufenmaske visualisiert werden kann. Dieses virtuelle dreidimensionale Bildgerüst wird in einem Schritt 130 zur weiteren Verwendung gespeichert.
  • Das virtuelle dreidimensionales Bildgerüst dient als Verzerrungsmaske und virtuelle Form zum Erzeugen eines virtuellen dreidimensionalen Bildmodells. Dabei wird in einem Verfahrensschritt 150, der in 3 als „Displace" bezeichnet ist, das Urbild als Textur über das virtuelle Bildgerüst gelegt und so verzerrt, daß die entsprechenden Urbildabschnitte auf die virtuellen Tiefenebenen „tiefgezogen" d.h. diesen Tiefenebenen zugeordnet werden. Von diesem virtuellen dreidimensionalen Bildmodell werden nun von einer Reihe verschiedener virtueller Betrachtungswinkel aus virtuelle Einzelbilder 160 des virtuellen dreidimensionalen Bildmodells durch eine virtuelle Projektion der Bilddaten des virtuellen dreidimensionalen Bildmodells entsprechend bekannter perspektivischer Abbildungsgesetze erzeugt.
  • In einem Kombinationsschritt 170 werden die virtuellen Einzelbilder nach einem für das Abbildungsverfahren mit zusätzlicher Tiefenwirkung festgelegten Algorithmus so kombiniert, dass schließlich Bilddaten 180 für die dreidimensionale Abbildung des anfänglichen Urbildes vorliegen.
  • Im Folgenden werden einige Bildbearbeitungen anhand von Beispielen näher erläutert. 5a zeigt ein, im allgemeinen farbiges, zweidimensionales Urbild 200. Wie dem Bild zu entnehmen ist, befinden sich eine Reihe von Pflanzen offensichtlich im Vordergrund des Bildmotivs, während offensichtlich weiter im Hintergrund gelegene undeutliche Hafenanlagen, Gebäude und ein weitgehend strukturloser Strand zu erkennen sind. Weiterhin wird der praktisch im Unendlichen gelegene Hintergrund im Urbild 200 durch einen weich verlaufenden Himmel gebildet. Wie der 5a zu entnehmen ist, zeichnen sich die im offensichtlichen Vordergrund angeordneten Pflanzen durch einen im Vergleich zum Hintergrund beträchtlichen Detailreichtum aus, der sich unter anderem in einer großen Anzahl von „Kanten", beispielsweise im Bereich der Blätter oder der Blüten, zeigt. Der Hintergrund ist im Vergleich dazu kantenarm bzw. kantenfrei. Es ist demnach naheliegend, die Dichte der Kanten im Urbild 200 als Indikator für die räumliche Lage der dargestellten Objekte heranzuziehen.
  • 5b zeigt ein aus dem Urbild 200 nach einer Graustufenumwandlung und einer optionalen Größenkorrektur gewonnenes kantenmarkiertes Bild 210. Dort, wo sich die strukturreichen Pflanzen aus dem in 5a gezeigten Urbild 200 befinden, zeigt das kantenmarkierte Bild 210 eine Vielzahl durch helle Pixel markierter Kanten, die besonders im rechten Bildbereich zu einer höheren mittleren Bildhelligkeit führen. Dagegen sind sowohl der Himmel als auch der Strandbereich aus dem Urbild 200 kantenarm und daher im kantenmarkierten Bild 210 vorwiegend dunkel, während die im Urbild 200 erkennbaren Gebäude einige wenige Kantenstrukturen in Form vereinzelter heller Bildpunkte erzeugen.
  • Die 6a und 6b zeigen ein weichgezeichnetes kantenmarkiertes Bild 220 und ein weichgezeichnetes kantenmarkiertes und zusätzlich tonwertkorrigiertes Bild 230. Auf dem weichgezeichneten Bild 220 ist zu erkennen, daß sich der rechte Bilddteil durch einen höheren Bildhelligkeitswert vom linken Bildteil unterscheidet. Dieser Unterschied zeigt sich noch deutlicher im tonwertkorrigierten Bild 230 in 6b. Der Kantenreichtum im Bereich der Pflanzen des Urbildes, mit anderen Worten der Strukturreichtum des angenommenen Vordergrundes, zeigt sich in den Bildern 220 und 230 deutlich als ein heller Bereich. Deutlich ist im tonwertkorrigierten Bild 230 auf der linken Bildhälfte ein etwas hellerer Streifen zu erkennen, der allerdings deutlich dunkler als der Bildbereich der Pflanzen ist. Dieser Streifen entspricht den abgebildeten Gebäuden aus dem Urbild 200 aus 5a. Der deutlich dunklere Helligkeitswert verweist auf die kantenärmere Struktur der abgebildeten Gebäude und somit auf deren Anordnung im angenommenen Bildhintergrund.
  • Im weichgezeichneten und tonwertkorrigierten Bild bilden der Himmel und der Strand aus dem Urbild 200 eine einheitlich dunkle Fläche. Obwohl der Strand eher zum mittleren Vordergrund des Bildes, als zum durch den Himmel gebildeten Hintergrund zu rechnen ist, kann aus dem kantenmarkierten sowie dem weichgezeichneten und tonwerkorrigierten Bild allein dessen mittlere Vordergrundlage nicht eindeutig bestimmt werden. Hier bietet sich eine Zuordnung des Strandes zu einer virtuellen mittleren Tiefenebene aufgrund des gelben oder braunen Farbwertes an, der sich in diesem Beispiel eindeutig vom Farbwert des blauen Himmels unterscheidet.
  • Dies ist mit der oben bereits erwähnten Fixpunktfestlegung 110 möglich. 7a zeigt ein diesbezügliches beispielhaftes Menü 239, 7b das dem Menü entsprechende Bild 240. In einem Histogramm 241 sind eine Reihe von Farbkanälen dargestellt, die in dem in 7a gezeigten Ausführungsbeispiel eine Reihe von Grauwerten sind. Die entsprechenden Grauwerte sind in einer Grauwertleiste 242 angezeigt. Im linken Teil des Histogramms 241, bzw. der Grauwertleiste 242 befinden sich die dunklen Hellig keitswerte, im rechten Teil die hellen Helligkeitswerte. Die Größe der Histogrammbalken zeigt die Häufigkeitsverteilung der entsprechenden Grauwerte an. Zu erkennen ist, dass sich der helle Bereich des weichgezeichneten, bzw. tonwertkorrigierten Bildes 220 oder 230 in einem breiten Maximum des Histogramms 241 zeigt, während die dunklen Bereiche in den Bildern 220 und 230 zu einem Maximum im linken Teil des Histogramms 241 bei den dunklen Helligkeitswerten führt. Mittels Indikatorenzeigern 243 können gewisse Helligkeitswerte ausgewählt werden. Mit Hilfe der Tasten 245 können Helligkeitswerte ausgewählter Pixel direkt aus dem Bild 241 in das Histogramm 241 ausgelesen und übertragen werden.
  • In dem hier dargestellten Beispiel stellt sich heraus, dass sich der dem Strand aus dem Urbild 200 entsprechende Bereich in seinem Helligkeitswert vom dem dem Himmel aus dem Urbild 210 entsprechenden Bildabschnitt unterscheidet. Dieser kann mittels eines Auswahlindikators 244 als virtuelle Bildebene ausgewählt werden und bildet einen möglichen Fixpunkt für virtuelle Einzelansichten des später zu erzeugenden virtuellen dreidimensionalen Bildmodells.
  • Die 8a und 8b zeigen an einem sehr stark schematisierten Beispiel eine Tiefenebenenzuordnung und eine Konstruktion eines virtuellen dreidimensionalen Bildgerüstes. In 8a ist ein stark schematisiertes monokular erzeugtes zweidimensionales Urbild 301 dargestellt, dessen einzelne Objekte in ihrer räumlichen Lage im Bild schon durch die vorhergehend beschriebenen Konturerkennungsverfahren identifiziert worden seien. Das in 8a beispielhaft dargestellte schematische Urbild 301 weist ein erstes Objekt 303, ein zweites Objekt 304 und ein drittes Objekt 305 auf, die vor einer als Hintergrund identifizierten Fläche 306 angeordnet sind und sich von dieser abheben.
  • Die vorhergehend beschriebenen Verfahren zur Konturenmarkierung, zur Fixpunktdefinition und weitere Vermutungen über die Bildtiefe lassen es beispielhafter Weise für das schematische Urbild 301 in 8a in sinnvoll erscheinen, das erste Objekt 303 in der Tiefenebene im Vordergrund anzuordnen, während die Objekte 304 und 305 weiter im Bildhintergrund vermuteten Tiefenebenen zuzuordnen sind. Die Fläche 306 bildet einen quasi im Unendlichen gelegenen Bildhintergrund. In 8b ist das aus den Zuordnungen der Objekte aus 8a zu den entsprechenden Tiefenebenen erzeugte virtuelle Bildgerüst 307 in einem Schnitt entlang der Linien A-A bzw. der Linie B-B aus 8a gezeigt. Die Schnitte entlang der Schnittlinien A-A, bzw. B-B ergeben somit ein virtuelles „Höhenprofil" des virtuellen Bildgerüstes. Wie aus 8b zu entnehmen ist, ist das Objekt 303 in diesem virtuellen „Höhenprofil" auf der obersten Tiefenebene angeordnet, während das Objekt 304 einer darunter befindlichen Tiefenebene zugeordnet wird. Das Objekt 305 bildet eine weitere Tiefenebene im virtuellen Bildgerüst in der 8b aus. Die virtuelle Tiefenebene des Bildhintergrundes 306 ist in 8b aus Darstellungsgründen relativ nahe zu den Tiefenebenen der anderen Objekte 303, 304 und 305 angeordnet. Ein zweckmäßiges virtuelles Bildgerüst muß zweckmäßigerweise Tiefenebenenabstufungen aufweisen, die der vermuteten tatsächlichen räumlichen Lage der Objekte entsprechen. So sollte die virtuelle Tiefenebene des Bildhintergrundes demnach zweckmäßigerweise so angeordnet sein, dass deren Abstand zu den übrigen definierten Tiefenebenen des virtuellen Bildgerüstes ein Vielfaches der Abstände zwischen den jeweils anderen entspricht. Werden beispielsweise die Abstände zwischen den virtuellen Tiefenebenen der Objekte 303 und 304 bzw. zwischen der virtuellen Tiefenebene des Objektes 304 und 305 im Bereich von einigen Metern definiert, muß der zweckmäßige virtuelle Abstand zwischen der Tiefenebene des Objektes 305 und der Tiefenebene des Hintergrundes 306 für ein realistisches Bildgerüst zweckmäßigerweise eine Größe annehmen, die im Kilometerbereich liegt, da erfahrungsgemäß für Objekte im Hintergrund gilt, dass diese praktisch unverändert bei kleinen Unterschieden im Betrachtungswinkel abgebildet werden.
  • Das zweidimensionale Urbild wird auf das virtuelle Bildgerüst angepaßt. Bei dem in den 8a und 8b gezeigten schematischen Beispiel erfolgt dies so, daß die Bilddaten des Urbildes 301, insbesondere die Bildinformationen der einzelnen Pixel, virtuell den einzelnen Tiefenebenen im virtuellen Bildgerüst zugewiesen werden. Es entsteht ein virtuelles dreidimensionales Bildmodell, das in dem hier dargestellten Beispiel einer Anordnung aus „Kulissen" vergleichbar ist, bei der sich das Objekt 303 virtuell auf der Höhe einer ersten virtuellen Tiefenebene im Vordergrund befindet und die weiteren, auf den Niveaus der entsprechenden anderen Tiefenebenen gelegenen „Kulissen" der Objekte 304 und 305 „verdeckt".
  • Fließende Übergänge zwischen den einzelnen virtuellen Tiefenebenen können in Ergänzung dazu zum einen dadurch erreicht werden, indem das Raster der Abstufungen der virtuellen Abstände zwischen den einzelnen Tiefenebenen verfeinert wird und bei den einzelnen Tiefenebenen weitere Abstufungen vorgenommen werden. Zum anderen ist es auch möglich, die Ränder der Tiefenebenen bzw. der auf den Tiefenebenen gelegenen Objekte geeignet virtuell so zu deformieren, daß diese ineinander übergehen. So wäre es beispielsweise bei dem schematischen Objekt 303 in 8a möglich, den Rand von dessen Tiefenebene virtuell so deformieren, dass das Objekt 303 eine virtuelle sphärische Krümmung erhält. In einer dazu entsprechenden Weise können die Tiefenebenen des virtuellen Bildgerüstes so deformiert werden, daß die darauf abgebildeten Bildinformationen des zweidimensionalen Urbildes im Rahmen eines zweckmäßigen oder gewünschten virtuellen dreidimensionalen Bildmodells prinzipiell beliebige Formen oder Verzerrungen aufweisen können, die entweder einer wirklichen dreidimensionalen Körperform weitgehend entsprechen oder auch mit beliebigen künstlerischen Effekten angereichert sein können.
  • Die 9a und 9b zeigen ein aus dem virtuellen Bildgerüst aus der 8b erzeugtes virtuelles dreidimensionales Bildmodell 807 im Schnitt entlang der Linien A-A bzw. B-B aus 8a und deren virtuelle Aufnahmen aus zwei Betrachtungswinkeln 351 und 352. Die in den 9a und 9b dargestellte Konfiguration entspricht einer binokularen Betrachtung eines dreidimensionalen Objektes, die innerhalb des Verfahrens virtuell ausgeführt wird. Entsprechend den Gesetzmäßigkeiten der Perspektive erscheinen die virtuellen dreidimensionalen Objekte 303, 304, 305 und 306 von den betreffenden virtuellen Betrachtungswinkeln 351 und 352 aus unterschiedlich gegeneinander verschoben. Diese perspektivische Verschiebung ist die Grundlage der binokularen oder multiokularen Betrachtung räumlicher Objekte und wird im Rahmen des erfindungsgemäßen Verfahrens virtuell modellhaft nachvollzogen.
  • 10 zeigt ein Beispiel einer virtuell erzeugten Verschiebung unter dem Einfluß der virtuellen betrachtenden Projektion aus dem virtuellen Betrachtungswinkel 352 am Beispiel des Ausschnitts des virtuellen dreidimensionalen Bildmodells aus 9a. Zum Berechnen der virtuellen perspektivischen Verschiebung der virtuellen Objekte des virtuellen dreidimensionalen Bildmodells können unterschiedliche Verfahren angewen det werden. Bei dem in 10 beispielhaft gezeigten Verfahren wird das Prinzip der zentrischen Streckung angewendet, wobei die virtuell vom Betrachtungswinkel 352 aus anvisierten Objekte 303, 304 und 306 auf eine virtuelle Projektionsebene 308 projiziert werden und dabei eine Größenveränderung erfahren. Die Projektionsebene kann sich sowohl virtuell vor dem virtuellen dreidimensionalen Bildmodell, als auch hinter dem dreidimensionalen Bildmodell befinden. Eine Lage der virtuellen Projektionsebene innerhalb des virtuellen dreidimensionalen Bildmodells, beispielsweise in einer der bei der Fixpunktbestimmung festgelegten Bildschirmebene ist ebenfalls möglich und sogar am zweckmäßigsten, da eine solche Projektion binokulare Betrachtungsverhältnisse am besten nachvollzieht. Bei der in 10 gezeigten Projektion bildet der Betrachtungswinkel 352 gleichzeitig ein Projektionszentrum, wobei das virtuelle dreidimensionale Bildmodell gleichsam in einem virtuellen „Auflichtverfahren" betrachtet wird, bei dem die Strahlenquelle virtuell mit der Kamera zusammenfällt.
  • Andere virtuelle Projektionstechniken sind ebenfalls anwendbar bzw. zweckmäßig. So kann das Projektionszentrum virtuell hinter dem Hintergrund des virtuellen dreidimensionalen Bildmodells angeordnet sein und die entsprechenden Objekte der virtuellen Tiefenebenen als „Schattenriß" auf eine zweckmäßig positionierte Projektionsebene projizieren, die von einem Betrachtungswinkel aus betrachtet wird. Bei einer derartigen virtuellen Projektion erscheinen die im virtuellen Vordergrund gelegenen Objekte gegenüber den virtuell hinter ihnen befindlichen Objekten vergrößert, wodurch ein zusätzlicher Raumeffekt hervorgerufen werden kann.
  • Weiterhin ist es möglich, mehrere virtuelle Projektionszentren in Verbindung mit mehreren virtuellen Projektionsebenen in beliebiger zweckmäßiger Kombination vorzusehen. So kann beispielsweise der virtuelle Hintergrund von einem virtuell sehr weit hinter dem virtuellen dreidimensionalen Bildmodell angeordneten Projektionszentrum auf eine erste Projektionsebene projiziert werden, während eine Anordnung vieler, sehr dicht gegeneinander abgestufter Objekte im virtuellen Vordergrund durch ein zweites Projektionszentrum projiziert werden, die keinerlei Vergrößerungen an diesen Objekten, sondern nur eine virtuelle Verschiebung dieser Objekte hervorruft.
  • Die Wahl der virtuellen Projektionsmechanismen bzw. der Anzahl der Betrachtungswinkel hängt von konkreten Einzelfall, insbesondere vom Bildmotiv des zweidimensionalen Urbildes, von den in das Urbild hinein interpretierten Tiefenverhältnissen, von den gewünschten und/oder zu unterdrückenden Bildeffekten und nicht zuletzt auch vom als zweckmäßig erachteten Rechenaufwand und von dem letztlich angewendeten räumlichen Abbildungsverfahren ab, für das die Raumbildvorlage erzeugt werden soll. Prinzipiell können jedoch von dem virtuellen dreidimensionalen Bildmodell beliebig viele perspektivische Einzelbilder mit beliebig vielen, beliebig angeordneten virtuellen Projektionszentren, virtuellen Projektionsebenen, Betrachtungswinkeln usw. erzeugt werden, wobei das in 10 dargestellte sehr einfache Ausführungsbeispiel nur eine nicht repräsentative, sondern nur beispielhafte Ausführungsmöglichkeit aufzeigt.
  • In der 11a ist eine Reihe von nach einem der vorhergehend beschriebenen Projektionsverfahren virtuell erzeugten Einzelbildern 208a bis 208d aus einem virtuellen dreidimensionalen Bildmodell des in 5a beispielhaft gezeigten Urbildes 200 dargestellt. Obwohl die virtuellen Einzelbilder 208a bis 208d in diesem Ausführungsbeispiel schwarz/weiß dargestellt sind, sind diese in der Regel farbig. In den Einzelbildern 208a, 208b, 208c und 208d ist vor allem durch Vergleich der im oberen Bildteil dargestellten Blütenstruktur eine unterschiedliche Deformation dieses Bildabschnittes zu erkennen. Diese entsteht durch die virtuelle Projektion des virtuellen dreidimensionalen Bildmodells für die jeweiligen, in diesem Ausführungsbeispiel vier virtuellen Betrachtungswinkel.
  • 11 zeigt eine aus den virtuellen Einzelbildern 208a, 208b, 208c und 208d kombinierte Raumbildvorlage 209 für ein Abbildungsverfahren mit Raumeindruck in Verbindung mit einem vergrößerten Bildausschnitt 211 des oberen mittleren Bildteiles aus der Raumbildvorlage 209. Die Raumbildvorlage 209 wird aus den Einzelbildern 208a–d nach einem für das jeweils zur Anwendung kommende Abbildungsverfahren mit Tiefenwirkung kombiniert.
  • Im Folgenden werden unter Bezugnahme auf die 12a und 12b, bzw. auf die 13a bis 13c beispielhafte zweidimensionale Bildvorlagen und deren Abbildungen mittels eines monofokalen Linsenrasters beschrieben.
  • 12a zeigt ein beispielhaftes zweidimensionales Urbild 200, das in eine Reihe von Bildabschnitten 361 unterteilt ist. Die Größe der einzelnen Bildabschnitte ist prinzipiell beliebig und wird im wesentlichen durch die durchschnittliche Größe der kleinsten geschlossenen Bildobjekte und der einzelnen Bildpunkte bestimmt. Sofern angenommen wird, dass deutlich erkennbare Bildstrukturen im Bildvordergrund liegen, müssen diese zweckmäßigerweise durch die Bildabschnitte im wesentlichen als Einheit erfaßt werden, damit diese von anderen Strukturen unterscheidbar sind und dem betrachtenden Auge einen ausreichenden Akkomodationsreiz bieten. Das bedeutet, dass mit einer zunehmend kleinen Rasterung für eine zunehmende Anzahl von Einzelheiten Akkomodationsreize geschaffen werden können, die zu einem Tiefeneindruck beim Betrachter führen, sofern dabei nicht die einzelnen Bildpunkte, d.h. die Bildpixel hervorgehoben werden.
  • Die 12a zeigt ein matrixförmiges Raster aus im wesentlichen quadratischen Bildabschnitten. Eine andere Einteilung des zweidimensionalen Urbildes 200 ist jedoch ohne weiteres möglich. Zweckmäßig sind unter anderem hier nicht dargestellte kreisförmige Bildabschnitte in einer hexagonalen Anordnung. Die hexagonale Anordnung kreisförmiger Bildabschnitte bietet den Vorteil, daß ein gegebener Bildabschnitt im Vergleich zu der matrixförmigen Bildaufteilung sechs unmittelbare Nachbarn existieren und somit für das akkomodierende Auge ein homogenerer Übergang von einem ersten Bildabschnitt zur nächsten Umgebung des Bildes vorhanden ist.
  • Die Bildabschnitte 361 können vorverarbeitete, insbesondere skalierte, gedrehte oder auch gegenüber mehreren Achsen gespiegelte Bilddaten enthalten, die vor allem in Hinblick auf die Kompensation der abbildenden Wirkung des Linsenrasters vorab vorgenommen werden. In diesem Fall bilden die Bildabschnitte ein tatsächlich auf der zweidimensionalen Bildvorlage vorhandenes Mosaik aus. Aus 12a geht darüber hinaus hervor, dass einige Bildabschnitte 361a eine überwiegend strukturarme Bildinformation enthalten, während einige andere Bildabschnitte 361b besonders strukturreich sind.
  • In dem in 12a dargestellten Beispiel liegt das Raster der Bildabschnitte jedoch zunächst nicht tatsächlich in der Bildvorlage selbst vor und tritt erst durch das darüber gelegte Linsenraster in Erscheinung. Eine dafür beispielhafte Anordnung ist in einer Seitenansicht in 12b gezeigt. Die zweidimensionale Bildvorlage erscheint auf einer Display-Fläche 370, beispielsweise der fluoreszierenden Fläche einer Bildröhre oder der flüssigkristallinen Matrix eines Flachbildschirms und wird durch eine Display-Oberfläche 375 hindurch betrachtet. Auf der Display-Oberfläche 375 ist das monofokale Linsenraster 360 angeordnet, das beispielsweise als eine transparente, einer Reihe von matrixartig oder hexagonal angeordneten Fresnel-Linsen oder Zonenplatten enthaltende Folie ausgebildet sein kann. Die Folie selbst haftet durch adhäsive Haftkräfte, elektrostatische Kräfte oder einen transparenten Haftfilm fest auf der Displayoberfläche. Jedes Linsenelement 365 des Linsenrasters bildet einen darunter befindlichen Bildabschnitt 361 so ab, dass dieser durch die dabei bewirkte Vergrößerung vor oder hinter der Bildebene des Displays 370 erscheint. Daher sind die Linsenelemente 365 so ausgeführt, dass sich die Displayoberfläche entweder kurz vor oder hinter den einzelnen Brennpunkten des Linsenrasters befindet.
  • In den 13a bis 13c ist dies näher dargestellt. Die Figuren zeigen einen beispielhaften Bildausschnitt 200a aus dem in 12a gezeigten zweidimensionalen Urbild 200 mit den durch das Linsenraster 360 bzw. den lokalen Linsenelementen hervorgerufenen Veränderungen des Bildausschnitts.
  • Der Bildausschnitt 200a wird durch einen unveränderten Teil des zweidimensionalen Urbildes 200 aus 12a gebildet, der auf dem Display 370 angezeigt wird. In 13b wird der Bildausschnitt 200a durch eine Anordnung aus vier beispielhaften Bildabschnitten 361 unterteilt. Dabei enthalten die beiden linken Bildabschnitte 361a jeweils eine eher strukturlose und diffuse Bildhintergrundinformation, während die rechten Bildabschnitte 361 einen strukturreichen Inhalt zeigen, der sich offensichtlich im Bildvordergrund befindet.
  • Jeder dieser Bildabschnitte wird, wie in 13c beispielhaft dargestellt, durch ein Linsenelement 365 vergrößert abgebildet. In der in 13c gezeigten beispielhaften Darstellung beträgt der Vergrößerungsfaktor bei Verwendung eines Linsenelementes mit fokussierender Wirkung 365 etwa 1:2. Bei dieser beispielhaften Darstellung ergeben die linken Bildteile 361a, die einen diffusen strukturlosen Bildhintergrund enthalten, auch bei der Vergrößerung durch das Linsenraster durch deren Strukturlosigkeit einen geringen Akkomodationsreiz, während die beiden rechten Bildabschnitte 361b aus 13c Strukturen enthalten, die eine Akkomodation des Auges auf die so dargestellten Bildinhalte veranlassen. Im Ergebnis erscheinen die Bildinhalte der rechten Bildabschnitte 361b aus 13c dem Betrachter deutlich näher als die Inhalte der linken Bildabschnitte 361a. Bei einer zweckmäßigen Größe der einzelnen Bildabschnitte 361 werden die bei der Abbildung durch das Linsenraster erzeugten Lücken durch die Wirkungsweise des physiologischen visuellen Wahrnehmungsapparates ausgeglichen und integriert.
  • Bei dem Ausführungsbeispiel aus den 13a bis 13c führt die Abbildung der Bildabschnitte 361 zu einer horizontal und vertikal gespiegelten Darstellung. Grundsätzlich bieten sich zwei Möglichkeiten, um diesem Effekt zu begegnen. Bei einer ersten Vorgehensweise werden die einzelnen Bildabschnitte der zweidimensionalen Urbildvorlage in der Nachfolge des vorhergehend erwähnten Bildbearbeitungsverfahrens so vorbereitet, insbesondere skaliert bzw. horizontal oder vertikal gespiegelt, dass deren Abbildung wieder zum ursprünglichen Ausgangsbild zurückführt. Die Stärke der vorbereitenden Skalierungen, bzw. Spiegelungen wird aufgrund des Vergrößerungsfaktors des Linsenrasters bzw. der aus dem virtuellen dreidimensionalen Bildmodell abgeleiteten Lage der darzustellenden Objekte abgeleitet und an den Bildabschnitten vorab ausgeführt.
  • Bei einer zweiten Möglichkeit, die insbesondere für einfache Bildmotive, wie Zeichen oder einfache geometrische Strukturen auf einem einheitlichen Bildhintergrund, anwendbar ist, werden Anzahl, Anordnung und Größe der Linsenelemente im Linsenraster so gewählt, dass die Abbildungsfaktoren für das gesamte Bild unbedeutend sind. Diese Ausführungsform bietet vor allem den Vorteil, dass zum Teil rechenintensive Bildvorbereitungen entfallen und die Raumbildvorlage ohne Linsenraster problemlos erkannt werden kann. Das Bild 200 wirkt ohne monofokales Linsenraster als ein normales zweidimensionales Bild, während es durch die Anwendung des Linsenrasters in einer Tiefenwirkung gestaffelt erscheint, wobei die Tiefenwirkung durch ein bloßes Anbringen des Linsenrasters, also mit sehr einfachen Mitteln, hervorgerufen werden kann.
  • 10
    Urbilddaten
    20
    Einlesen der Urbilddaten
    30
    Anpassen der Urbilddaten
    40
    Zwischenspeichern der angepaßten Urbilddaten
    50
    zwischen gespeicherte Bilddaten
    60
    optionale Farbkanal/Farbverteilungsänderung
    70
    Umwandlung in Grauwerte
    80
    Kantenerkennungsverfahren
    81
    Daten des Bildpixels
    82
    Auswahl des Bildpixels
    83
    Einlesen des Helligkeitswertes des Bildpixels
    84
    Erhöhen des Helligkeitswertes
    85
    Bildpixel mit erhöhtem Helligkeitswert
    86
    Erniedrigen des Helligkeitswertes
    87
    Bildpixel mit erniedrigtem Helligkeitswert
    88
    Gehe zu: nächster Pixel
    89
    Bildmenü zur Kantenerkennung
    90
    Weichzeichnungsprozedur
    100
    optional: Tonwertkorrektur
    110
    Fixpunktdefinition
    120
    optional: setzen weiterer Fixpunktoptionen
    130
    Speichern der Graustufenmaske
    140
    erzeugte Graustufenmaske
    150
    Verzerren der Urbildtextur, Erstellen des virtuellen dreidimensionalen Bildmo
    dells, Erzeugen virtueller Einzelbilder
    160
    virtuelle Einzelbilder
    170
    Kombination der virtuellen Einzelbilder
    180
    Bilddaten für räumliches Abbildungsverfahren
    200
    Beispielhaftes zweidimensionales Urbild
    200a
    Bildausschnitt
    208a
    erstes virtuelles Einzelbild
    208b
    zweites virtuelles Einzelbild
    208c
    drittes virtuelles Einzelbild
    208d
    viertes virtuelles Einzelbild
    209
    kombinierte Raumbildvorlage
    209a
    vergrößerter Ausschnitt einer kombinierten Raumbildvorlage
    210
    beispielhaftes kantenmarkiertes Bild
    220
    beispielhaftes kantenmarkiertes, weichgezeichnetes Bild
    230
    beispielhaftes tonwertkorrigiertes weichgezeichnetes Bild
    239
    Fixpunktdefinitionsmenü
    240
    fixpunktdefiniertes Bild
    241
    Histogramm
    242
    Grauwertleiste
    243
    Indikatorenzeiger
    244
    Auswahlindikator
    245
    Direktauswahl für Helligkeitswerte
    301
    Urbild, schematisch
    303
    erstes Objekt
    304
    zweites Objekt
    305
    drittes Objekt
    306
    angenommener Hintergrund
    307
    virtuelles Bildgerüst mit virtuellen Tiefenebenen
    308
    virtuelles Einzelbild
    351
    erster virtueller Betrachtungspunkt mit erstem Betrachtungswinkel
    352
    zweiter virtueller Betrachtungspunkt mit zweitem Betrachtungswinkel
    360
    monofokales Linsenraster
    361
    Bildabschnitt
    361a
    strukturarme Bildabschnitte
    361b
    strukturreiche Bildabschnitte
    365
    Linsenelement
    370
    Display
    375 Displayoberfläche

Claims (20)

  1. Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen aus zweidimensionalen Bilddaten aus Bildern, Bildsequenzen, Videofilmen und dergleichen zweidimensionalen Urbildern, dadurch gekennzeichnet, dass – auf der Grundlage von aus monokularen Urbilddaten (10) ermittelten Bildinformationen ein auf einer vermutungsbasierten räumlichen Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst (307) erzeugt wird, wobei ein Verfahren zur Kantenerkennung (80) der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes (210) ausgeführt wird, ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt und mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet werden, – die Urbilddaten auf das virtuelle dreidimensionale Bildgerüst (307) zum Erzeugen eines virtuellen dreidimensionalen Bildmodells (150) angepasst werden, wobei eine entsprechend der virtuellen Tiefenebenen (303, 304, 305, 306, 307) deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepasst wird; – die Daten des virtuellen dreidimensionalen Bildmodells als Vorlage zum Erstellen der Raumbildvorlage (209, 209a) verwendet werden, wobei von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Beobachtungswinkeln (351, 352) eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenden Einzelbildern (208a, 208b, 208c, 208d, 308) erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes (200, 301) entsprechend des virtuellen Betrachtungswinkels verschoben und/oder verzerrt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aufgrund eines ermittelten Kantenreichtums verschiedene Urbildareale verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder einem Vordergrund, zugeordnet werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren zur Kantenerkennung (80) und das Verfahren zum Ermitteln der Farbinformation einzeln und unabhängig voneinander oder in Kombination ausgeführt werden.
  4. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass auf dem kantenmarkierten Bild (210) zur Verstärkung und Vereinheitlichung eines kantenreichen Urbildareals ein Weichzeichnungsverfahren (90, 220) angewendet wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass optional eine Tonwertkorrektur (100) des kantenmarkierten Bildes (210) erfolgt.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes (210, 220) eine auf dem Tonwert eines Bildpunktes beru hende Zuordnung eines betreffenden Bildabschnittes zu einer virtuellen Tiefenebene (303, 304, 305, 306, 307) ausgeführt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Fixpunktdefinition (110) eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert erfolgt und ein virtueller Drehpunkt der später erzeugten virtuellen Einzelansichten festgelegt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass optional einem vorgegebenen Farb- und/oder Helligkeitswert eines Bildpixels eine fest vorgegebene virtuelle Tiefenebene (303, 304, 305, 306, 307) zugeordnet wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass festgelegten Bildabschnitten, insbesondere dem Bildrand und/oder der Bildmitte eine fest vorgegebene virtuelle Tiefenebene zugeordnet wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die virtuellen Einzelbilder (208a, 208b, 208c, 208d, 308) nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage (209, 209a) kombiniert werden.
  11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Erstellen der Raumbildvorlage (209, 209a) eine Bildbearbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln, ausgeführt und die dabei erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters (360) angezeigt wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass das zweidimensionale Urbild (200) ohne eine Bildbearbeitung durch das monofokale Linsenraster (360) angezeigt wird, wobei das zweidimensionale Urbild (200) die Raumbildvorlage für die Anzeige durch das monofokale Linsenraster bildet.
  13. Vorrichtung zum Anzeigen einer Raumbildvorlage zur Durchführung eines der Verfahren nach den Ansprüchen 1 bis 12, gekennzeichnet durch ein zweidimensionales Urbild (200) als zweidimensionale Bildvorlage und ein über der Bildvorlage ausgedehntes monofokales Linsenraster (360).
  14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die zweidimensionale Bildvorlage aus einem Mosaik aus der Rasterstruktur des Linsenrasters (360) zugeordneten Bildabschnitten (361, 361a, 361b) ausgeführt ist, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein Linsenelement (365) des monofokalen Linsenrasters. ist.
  15. Vorrichtung nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, dass, bei einer ersten Ausführungsform die Bildabschnitte (361, 361a, 361b) im wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage (200) sind.
  16. Vorrichtung nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, dass bei einer weiteren Ausführungsform die Bildabschnitte (361, 361a, 361b) zur Kompensation der Abbildungswirkungen des Linsenrasters (360) skaliert und/oder gespiegelt und/oder gedreht sind.
  17. Vorrichtung nach einem der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass die zweidimensionale. Bildvorlage (200) ein auf einem Display (370) erzeugtes Bild ist und das Linsenraster (360) auf der Oberfläche (375) des Displays befestigt ist.
  18. Vorrichtung nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige und auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt ist.
  19. Vorrichtung nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt ist.
  20. Vorrichtung nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige, auf der Display-Oberfläche haftende konventionelle Konvexlinsen-Anordnung ausgeführt ist.
DE10348618A 2003-09-15 2003-10-20 Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage Expired - Lifetime DE10348618B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10348618A DE10348618B4 (de) 2003-09-15 2003-10-20 Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage
PCT/EP2004/009480 WO2005029871A2 (de) 2003-09-15 2004-08-25 Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit räumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
JP2006526536A JP2007506167A (ja) 2003-09-15 2004-08-25 3次元的奥行き効果を有するイメージ表示法用の3次元イメージ・パターンの生成方法および3次元イメージ・パターンを表示する装置
US10/572,025 US20070159476A1 (en) 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a steroscopic image master
EP04764457A EP1665815A2 (de) 2003-09-15 2004-08-25 Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit rumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10342465 2003-09-15
DE10342465.2 2003-09-15
DE10348618A DE10348618B4 (de) 2003-09-15 2003-10-20 Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage

Publications (2)

Publication Number Publication Date
DE10348618A1 DE10348618A1 (de) 2005-04-14
DE10348618B4 true DE10348618B4 (de) 2006-07-27

Family

ID=34305745

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10348618A Expired - Lifetime DE10348618B4 (de) 2003-09-15 2003-10-20 Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage

Country Status (1)

Country Link
DE (1) DE10348618B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012100848A1 (de) 2012-02-01 2013-08-01 Christian Hendrich System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102015112411A1 (de) 2015-07-29 2017-02-02 Universal Consulting GmbH System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009041328A1 (de) * 2009-09-15 2011-03-24 Natural View Systems Gmbh Verfahren und Vorrichtung zum Erzeugen von Teilansichten und/oder einer Raumbildvorlage aus einer 2D-Ansicht für eine stereoskopische Wiedergabe

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4878247A (en) * 1986-03-19 1989-10-31 Rollei Fototechnic Gmbh Method for the photogrammetrical pick up of an object with the aid of at least one opto-electric solid-state surface sensor
US6069608A (en) * 1996-12-03 2000-05-30 Sony Corporation Display device having perception image for improving depth perception of a virtual image
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4878247A (en) * 1986-03-19 1989-10-31 Rollei Fototechnic Gmbh Method for the photogrammetrical pick up of an object with the aid of at least one opto-electric solid-state surface sensor
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US6069608A (en) * 1996-12-03 2000-05-30 Sony Corporation Display device having perception image for improving depth perception of a virtual image

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
http://erg.usgs.gov/isb/pubs/factsheets/fs04000.ht Remote Sensing Tutorioal: Table of Contents (S. 1-6), Section 11: The Display of Contuors in Maps (S. 1-4), Section 11: Seeing in 3-D Stereo (S. 1-4), Section 11: Measuring Heights from Individual and Paired Images (S. 1-4), Section 11: Digital Elevation Models (DEMs) and Viewing Modes (S. 1-4),Start bei: http://rst.gsfc.nasa.gov./Front/tofc.html
http://erg.usgs.gov/isb/pubs/factsheets/fs04000.htRemote Sensing Tutorioal: Table of Contents (S. 1-6), Section 11: The Display of Contuors in Maps (S. 1-4), Section 11: Seeing in 3-D Stereo (S. 1-4), Section 11: Measuring Heights from Individual and Paired Images (S. 1-4), Section 11: Digital Elevation Models (DEMs) and Viewing Modes (S. 1-4),Start bei: http://rst.gsfc.nasa.gov./Front/tofc.html *
Iwainsky, A., Wilhelmi, W.: Lexikon der Computer- grafik und Bildverarbeitung, Vieweg, 1994, S. 273, 281-283, ISBN 3-528-05342-9 *
Iwainsky, A., Wilhelmi, W.: Lexikon der Computer- grafik und Bildverarbeitung, Vieweg, 1994, S. 273, 281-283; ISBN 3-528-05342-9
K. Mütze et al.: ABC der Optik, Verl. Werner Dausien, 1972, S. 854-857 *
US GeoData Digital Elevation Models, Fact Sheet 040-00 (April 2000),S. 1-4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012100848A1 (de) 2012-02-01 2013-08-01 Christian Hendrich System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102012100848B4 (de) 2012-02-01 2019-05-29 Hans Pfriem System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102015112411A1 (de) 2015-07-29 2017-02-02 Universal Consulting GmbH System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops

Also Published As

Publication number Publication date
DE10348618A1 (de) 2005-04-14

Similar Documents

Publication Publication Date Title
WO2005029871A2 (de) Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit räumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
DE69221346T2 (de) Vorrichtung und Verfahren zur Erstellung stereoskopischer Bilder
DE69433842T2 (de) Verfahren zur Computergenerierung von autostereoskopischen Bildern
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE69621509T2 (de) Verfahren zur Auswahl zweier Einzelbilder einer zweidimensionalen Bildsequenz als Basis für die Berechnung der relativen Tiefe von Bildobjekten
DE69515522T2 (de) Dreidimensionales bildformungssystem
DE69420892T2 (de) Optisches Gerät
DE69333846T2 (de) Verfahren zur mischung von bildern und vorrichtung hierzu.
DE69812696T2 (de) Verfahren und vorrichtung zum einstellen eines oder mehrerer projektoren
DE19500315C1 (de) Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
EP2153269A1 (de) Verfahren zur ausrichtung eines parallaxenbarriereschirms auf einem bildschirm
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE112007002524T5 (de) Erzeugen und Anzeigen von räumlich versetzten Teilrahmen
DE4228111C1 (de)
DE102014205519A1 (de) Verfahren und Vorrichtung zum Anpassen einer Anzeige eines autostereoskopischen Displays für ein Fahrzeug
DE60114498T2 (de) Darstellung der Leistung eines Brillenglases durch eine Indexanzeige in visuell verständlicher Weise
DE1506034A1 (de) Sichtgeraet fuer Flugsimulatoren
DE19646046C1 (de) Stereo-Hologramm-Display
DE69735106T2 (de) Kompensation der hintergrundluminanz-ungleichförmigkeit in bildzusammensetzungssystemen mit echtzeitbetrieb
DE10126546A1 (de) Vorrichtung und Verfahren zur Ermittlung eines ortsabhängigen Intensitäts- und Farbprofils und/oder Schärfeprofils optischer Linsensysteme
DE10348618B4 (de) Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer derartigen Raumbildvorlage
DE10241475A1 (de) Simulationsverfahren
DE19500699A1 (de) Personen-adaptiver stereoskoper Video-Schirm (PASS)
DE69230668T2 (de) Imaginograph
DE112012002679T5 (de) Vorrichtung und Verfahren zum Codieren/Decodieren von Mehrfachansicht-Bildern

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3D PHOTO AG, SCHWECHAT, AT

8381 Inventor (new situation)

Inventor name: GRASNICK, ARMIN, 07745 JENA, DE

8339 Ceased/non-payment of the annual fee
R073 Re-establishment requested
R073 Re-establishment requested
R409 Internal rectification of the legal status completed