[go: up one dir, main page]

DE10246122B4 - Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands - Google Patents

Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands Download PDF

Info

Publication number
DE10246122B4
DE10246122B4 DE2002146122 DE10246122A DE10246122B4 DE 10246122 B4 DE10246122 B4 DE 10246122B4 DE 2002146122 DE2002146122 DE 2002146122 DE 10246122 A DE10246122 A DE 10246122A DE 10246122 B4 DE10246122 B4 DE 10246122B4
Authority
DE
Germany
Prior art keywords
textures
parameters
index
determined
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn - After Issue
Application number
DE2002146122
Other languages
English (en)
Other versions
DE10246122A1 (de
Inventor
Andreas Dipl.-Math. Reich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE2002146122 priority Critical patent/DE10246122B4/de
Publication of DE10246122A1 publication Critical patent/DE10246122A1/de
Application granted granted Critical
Publication of DE10246122B4 publication Critical patent/DE10246122B4/de
Anticipated expiration legal-status Critical
Withdrawn - After Issue legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter, in Form von Texturen der Oberflächenpunkte, für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) mittels eines Raytracingverfahrens ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden, und dass in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt wird und mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes erfolgt, wobei die Betrachtungsperspektive über einen Rotationswinkel (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) bestimmt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands, insbesondere zur Darstellung eines virtuellen Prototypen von Produkten.
  • Bei der Entwicklung neuer Produkte, insbesondere bei der Entwicklung neuer Kraftfahrzeugkomponenten, ist es in der Entwicklungsphase notwendig, einen Prototypen zu erzeugen. Anhand des Prototypen sollen insbesondere Designaspekte beurteilt werden können. Zudem sollen die sich oft widersprechenden Anforderungen von Technik, Gesetz und Design aufeinander abgestimmt werden. Da die Entwicklungszeiträume immer kürzer werden, hat es sich bewährt, anstelle der Herstellung von Prototypen sogenannte virtuelle Prototypen zu verwenden. Diese virtuellen Prototypen können für die Unterstützung des Entwicklungsprozesses, aber auch für die Entscheidungsfindung bei der Wahl zwischen verschiedenen Designs verwendet werden.
  • Die virtuellen Prototypen müssen die Anforderung erfüllen, eine photorealistische Visualisierung des Produkts zu geben, die etwa die gleiche Beurteilungsbasis wie ein tatsächlicher Prototyp liefert.
  • Als eine Visualisierungsmethode ist beispielsweise das Z-Bufferverfahren bekannt. Bei diesem Verfahren werden die einzelnen Geometriepartikel des Produkts (in der Regel Dreiecke) auf eine Kameraebene abgebildet und jeweils deren Abstand zu der Ebene abgespeichert. Es kann nun in jedem Punkt leicht bestimmt werden, welches Partikel am nächsten zur Kameraebene liegt. Die Farbe dieses Partikels wird in diesem Punkt dargestellt. Im Falle von transparenten Objekten wird neben dem vorderen transparenten Flächenstück auch die dahinterliegende Geometrie in abgeschwächter Form dargestellt.
  • Ein Verfahren zum Texturieren von 3D-Bildern ist in der EP 725 366 A2 beschrieben. Bei diesem als MIP-Mapping bezeichneten Verfahren wird ein 3D-Bild zur Anzeige auf einem Bildschirm texturiert, indem für bestimmte Positionen auf dem Bildschirm Textur-Bilddaten aus einem Speicher entsprechend der Bilddaten entnommen wird und ein geeigneter Teil der Textur-Bilddaten an der Position des Bildschirms abgebildet wird. Mit dem beschriebenen MIP-Mapping Verfahren kann der Betrachtungswinkel, den ein Betrachter zu dem anzuzeigenden Gegenstand hat nicht berücksichtigt werden.
  • Weiterhin ist in dem Artikel „Texture extraction from photographs and rendering with dynamic texture mapping" von Genc,S. und Atalay, V. (Proc. Int. Conference on Image Analysis and Processing, 1999, Seite 1055-1058) ein Verfahren zur Darstellung eines Gegenstandes beschrieben, wobei die Texturen der Oberfläche aus Bildern extrahiert werden, die aus unterschiedlichen Winkeln zu dem Gegenstand aufgenommen wurden. Hierbei muss eine große Anzahl von Bildern bezüglich der Textur an der Oberfläche extrahiert werden, um eine fotorealistische Wiedergabe des Gegenstandes zu erzeugen.
  • Z-Bufferalgorithmen sind sehr einfach aufgebaut und können fest in einer Grafikhardware implementiert werden. Die daraus resultierende Geschwindigkeit ermöglicht es, große Datenmengen in Echtzeit darzustellen. Allerdings wird bei diesem Verfahren jedes Geometriepartikel isoliert von der Umgebung betrachtet, so dass in reflektierenden Objekten die Umgebung nicht realistisch dargestellt werden kann. Mit Hilfe sogenannter Environmentmaps kann der Eindruck von reflektierenden Oberflächen erzeugt werden. Um den darzustellenden Oberflächenpunkt wird dabei eine Sphäre gelegt, auf der eine Textur die zu reflektierende Umgebung darstellt. Der Sichtstrahl des Betrachters zum Oberflächenpunkt wird an der Oberfläche gespiegelt und der entsprechende Farbpunkt auf der Sphäre kennzeichnet den im Oberflächenpunkt sichtbaren Farbwert. Durch die Verwendung von Environmentmaps scheint sich zwar etwas in der Oberfläche zu spiegeln, Umgebungselemente sind durch diese Technik aber nicht sichtbar. Neben der mangelnden Darstellung von Reflektionen sind Refraktionen – die Brechung des Lichtstrahls in einem teiltransparenten Objekt – nicht möglich.
  • Neben dem Z-Bufferverfahren ist als weitere Visualisierungsmethode das sogenannte Raytracingverfahren bekannt. Das Raytracingverfahren verfolgt einen vollständig anderen Ansatz. Ausgehend von einem Betrachter werden Strahlen in den Raum geschickt. Trifft der Strahl auf eine Oberfläche auf, so wird er, je nach Oberflächeneigenschaften, diffus gestreut, reflektiert, oder aber er tritt refraktiv in das Objekt ein. Eine Kombination der drei Möglichkeiten ist vorstellbar. In diesem Fall wird der Strahl in mehrere Strahlen aufgeteilt, einer wird an der Oberfläche reflektiert, der zweite tritt unter Beachtung eines Brechungsindex in das Objekt ein. Die jeweils neu erzeugten Strahlen werden weiter verfolgt und eventuell erneut reflektiert oder innerhalb anderer Objekte gebrochen. Der Farbwert, des Oberflächenpunkts ist die gewichtete Mischung der Farbwerte der beiden Strahlen sowie der Oberflächenfarbe an diesem Punkt.
  • Die Datenstruktur, die zum Durchführen eines solchen Verfahrens notwendig ist, ist im Vergleich zu der Datenstruktur des Z-Bufferverfahrens wesentlich komplexer. In der Regel wird eine baumartige Datenstruktur benötigt. Aufgrund dieser Komplexität kann dieses Verfahren in der Regel nicht als Hardwarelösung implementiert werden. Die Berechnungszeit kann darüber hinaus, je nach Komplexität der dargestellten Geometrie, sehr lang sein. Allerdings kann mit dieser Methode eine sehr hohe Qualität der Darstellung erzielt werden.
  • Schließlich ist für die aussagekräftige Beurteilung von virtuellen Designmodellen neben der Darstellungsqualität das Darstellungsmedium von großer Bedeutung. Ein mögliches Medium ist die Echtzeitvisualisierung. Hierbei muss zur Gewährleistung des Echtzeitanspruchs als Visualisierungsverfahren das Z-Bufferverfahren verwendet werden. Refraktionen sind allerdings nicht darstellbar und Reflektionen können nur mittels Environmenttexturen angedeutet werden.
  • In der Echtzeitvisualisierung werden komplexe Strukturen über Texturen dargestellt, vergleichbar mit Bildern, die auf eine Oberfläche geklebt werden. Dadurch ist es möglich, die Menge der darzustellenden Geometrie zu reduzieren und optische Effekte als planares Abbild darzustellen. Diese Texturen können sehr realistisch wirken, besitzen aber den großen Nachteil, dass diese gerade bei einer dargestellten Tiefenwirkung der Geometrie nur aus der Perspektive, aus der sie aufgenommen wurden, realistisch aussehen. In anderen Perspektiven wirken sie verzerrt und sind nicht verwendbar. Es ist somit nicht möglich, mit Hilfe einer auf eine Ebene projizierten Textur den aktuellen Konstruktionsstand aus Designsicht zu diskutieren.
  • Aufgabe der vorliegenden Erfindung ist daher die Bereitstellung eines Verfahrens und einer Vorrichtung zur verzerrungsfreien Darstellung eines Produkts in einer Echtzeitvisualisierung, die eine hohe Interaktivität erlaubt. Insbesondere soll die Darstellung auch dann verzerrungsfrei sein, wenn das Produkt aus unterschiedlichen Perspektiven betrachtet wird. Gleichzeitig soll die Darstellungsqualität hoch sein.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass diese Aufgabe ideal gelöst werden kann durch ein Verfahren und eine Vorrichtung, die die unterschiedlichen möglichen Positionen eines Betrachters bei der Ermittlung der für die Darstellung notwendigen Parameter berücksichtigen.
  • Die Aufgabe wird daher gelöst durch ein Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden. Hierbei werden die Parameter, die Texturen der Oberflächenpunkte darstellen, mittels eines Raytracingverfahrens ermittelt. Ferner wird in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt und es erfolgt mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes. Dabei wird die Betrachtungsperspektive über einen Rotationswinkel um einen Fixpunkt in dem darzustellenden Gegenstand bestimmt.
  • Unter Perspektive der Betrachtung wird im Sinne dieser Erfindung die Position und Orientierung eines Betrachters oder einer Kamera bezüglich des Gegenstands verstanden. Durch die Bestimmung von Parametern für unterschiedliche Perspektiven können in dem Parameterfeld sämtliche Parameter abgelegt werden, die für mögliche Positionen und Blickwinkel eines Betrachters erforderlich sind. Eine Berechnung dieser Parameter während einer Visualisierung kann daher entfallen und eine Echtzeitvisualisierung kann daher ermöglicht werden.
  • Unter Parametern werden im Sinne dieser Erfindung Visualisierungsparameter verstanden. Diese Parameter stellen Texturen der Oberflächenpunkte der mindestens einen Oberfläche dar. Die Visualisierungsparameter werden auf der Basis des Raytracingverfahrens ermittelt. Dadurch können auch Reflektionen und Refraktionen innerhalb des Gegenstands korrekt dargestellt werden und die Darstellungsqualität kann deutlich verbessert werden. Die Verwendung des Raytracingverfahrens ist für die Echtzeitvisualisierung nur mit dem erfindungsgemäßen Verfahren möglich. Da die Parameter, insbesondere die Texturen, in einem Preprocessingschritt berechnet werden, beeinflussen die für das Raytracingverfahren notwendigen langen Rechnungszeiten die Echtzeitwirkung nicht. Aus diesem Grund können mit dem erfindungsgemäßen Verfahren auch komplexere Gegenstände, die zumindest teilweise reflektierende oder teildurchsichtige Bestandteile aufweisen, in hoher Qualität in Echtzeit dargestellt werden. Einen solchen Gegenstand stellen beispielsweise Beleuchtungselemente, wie die Heckleuchten eines Kraftfahrzeugs, dar.
  • Vorzugsweise wird jedem Parameter ein Index zugewiesen, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet. Durch die Zuweisung von Indices können bei einer späteren Ausgabe der Visualisierungsparameter diejenigen Parameter gemeinsam ausgelesen werden, die für eine bestimmte Betrachtungsperspektive aufgenommen wurden.
  • In dem Visualisierungsschritt werden daher bevorzugt Parameter aus dem Parameterfeld ausgelesen, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden.
  • Das erfindungsgemäße Verfahren kann in einer Ausführungsform so ausgelegt sein, dass in dem Preprocessingschritt
    • – um den darzustellenden Gegenstand eine Teilsphäre gelegt wird,
    • – diese Teilsphäre in diskreten Schritten in den Höhen- und Breitengraden der Teilsphäre durchlaufen wird,
    • – für jeden diskreten Punkt der Teilsphäre, der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Texturen mindestens einer der Oberflächen des Gegenstands bestimmt werden,
    • – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre, von dem aus diese berechnet wurden, beinhaltet, und
    • – diese indizierten Texturen in ein Texturenfeld abgelegt werden,
    • – und dass in dem Visualisierungsschritt eine Kameraanimation verwendet wird, bei der die Kameraposition um einen in dem Gegenstand befindlichen Fixpunkt gedreht werden kann,
    • – der Rotationswinkel der Kamera ermittelt wird,
    • – aus diesem Rotationswinkel der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind, und
    • – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands projiziert werden.
  • Die der Erfindung zugrunde liegende Aufgabe wird weiterhin gelöst durch eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands in Echtzeit, die zumindest eine Kameraanimationseinheit, mindestens eine Bestimmungseinheit für Parameter, die eine Berechnungseinheit von Texturen zur Berechnung auf der Basis des Raytracingverfahrens darstellt, mindestens einer Oberfläche des Gegenstands, mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition, mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst, wobei die Freiheitsgrade der Kamera auf die Rotation um einen Fixpunkt in dem darzustellenden Gegenstand beschränkt sind. Die Einheiten der Vorrichtung können als Vorrichtungen oder als Software-Programm vorliegen. Es ist auch möglich, dass mehrere Einheiten zusammengefasst sind.
  • Die Parameterauswahleinheit kann eine Vergleichseinheit darstellen, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.
  • Vorzugsweise ist die erfindungsgemäße Vorrichtung mit einer Anzeigevorrichtung verbunden, die einen Monitor oder eine Powerwall darstellt. Über diese Anzeigevorrichtungen können die ermittelten Darstellungen des Gegenstands ausgegeben werden. Zusätzlich ist in der Regel eine Eingabevorrichtung vorgesehen, die beispielsweise eine Tastatur oder ein Touchpad darstellen kann und mittels derer die Betrachtungsposition bzw. die Kameraposition verändert werden kann.
  • Die erfindungsgemäße Vorrichtung ist zur Ausführung des erfindungsgemäßen Verfahrens geeignet.
  • Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, gelten ebenso für die erfindungsgemäße Vorrichtung und umgekehrt.
  • Die Erfindung soll im Folgenden anhand einer Ausführungsform des Verfahrens an dem Beispiel der Darstellung einer Heckleuchte eines Kraftfahrzeugs erläutert werden. Hierzu wird Bezug auf die Figuren genommen. Es zeigen:
  • 1: eine schematische Darstellung einer Heckleuchte mit der durch eine Kameraanimation gebildeten Späre um die Heckleuchte; und
  • 2: ein Flussdiagramm des Ablaufs einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • Eine Heckleuchte besteht in der Regel im wesentlichen aus den im Folgenden genannten Komponenten: Sie umfasst ein Gehäuse, das reflektierend ausgestaltet ist und in dem Reflektoren eingebettet sind, fünf Lampen, zwei Zusatzlichtscheiben, die über dem Rück-, Brems- und Nebelschlusslicht bzw. über dem Rückfahr- und Blinklicht angeordnet sind, und eine Lichtabschlussscheibe. Zur Darstellung der Heckleuchte wird die Lichtabschlussscheibe als die Oberfläche verwendet, für die die Texturen bestimmt werden bzw. auf die die Texturen projiziert werden.
  • Erfindungsgemäß werden die Texturen eines jeden Oberflächenpunkts für verschiedene Perspektiven, die der Betrachter einnehmen kann, bestimmt. Hierzu kann, wie in 1 gezeigt, in der Visualisierungssoftware eine Kameraanimation mit einer Kamera K aufgebaut werden, in der in einer Teilsphäre S um die Heckleuchte H, die in 1 nur schematisch angedeutet ist, die Höhen- (h) und Breitengrade (b) der Sphäre systematisch in diskreten Schritten (αi, βj)(i,j) mit αi ∊ [αmin, αmax], i ∊ [0,maxhor] βj ∊ [βmin, βmax], j ∊ [0,maxver]durchlaufen werden. Die Form der Sphäre wird dem darzustellenden Gegenstand angepasst. Bei einer Heckleuchte kann beispielsweise eine Halbkugel ausreichen. Durch das Durchlaufen der verschiedenen Positionen entsteht somit eine Folge von Visualisierungen der Heckleuchte. Diese Visualisierungen werden vorzugsweise auf der Basis des Raytracingverfahrens erhalten, damit Reflektionen und Refraktionen innerhalb der Heckleuchte korrekt dargestellt werden können. Die Visualisierungsdaten erhalten beim Durchlaufen der Höhen- und Breitengrade einen laufenden Index, der zu jeder Höhen- und Breitenposition (αi, βj) innerhalb der Diskretisierung eindeutig eine Textur zuordnet. Nach der Vergabe des Index werden die Texturen aufbereitet, bevor diese in einem Texturfeld abgelegt werden.
  • Innerhalb des Echtzeitvisualisierungssystems werden die Freiheitsgrade der Kamera auf die Rotation (θ, ψ) um einen Fixpunkt F innerhalb der Heckleuchte eingeschränkt. Dadurch ist gewährleistet, dass der Betrachter nur Positionen einnehmen kann, für die in dem Preprocessingschritt die relevanten Texturen aufgenommen wurden. Bei einer Änderung der Perspektive des Betrachters wird eine Neutexturierung der Lichtabschlussscheibe der Heckleuchte bewirkt. Eine Verzerrung der Darstellung erfolgt hierbei nicht, da für jede mögliche Position des Betrachters die Texturen im Vorfeld ermittelt wurden. Die Entfernung r der Kamera zu dem Fixpunkt ist frei wählbar. Der Qualitätsverlust durch die Skalierung der Textur bei einer Annäherung des Betrachters an die Heckleuchte kann mit Hilfe einer ausreichenden Texturgröße entgegen gewirkt werden.
  • Abhängig von dem Rotationswinkel (θ, ψ) der Kamera kann eindeutig die geeignetste Textur mit dem Index index im Texturfeld ermittelt werden und auf die Lichtabschlussscheibe der Heckleuchte projiziert werden. Hierbei wird der Index nach folgender Formel aus dem Rotationswinkel berechnet:
    Figure 00090001
    wobei αmin und αimax bzw. βmin und βimax die minimalen und maximalen Höhen- bzw. Breitengrade der in dem Preprocessingschritt gewählten Teilsphäre, und maxhor und maxver die maximale Anzahl der diskreten Schritte, die im Preprocessingschritt in horizontaler und vertikaler Richtung durchlaufen wurden, sind.
  • Die Indizierung der Texturen beginnt mit 0. Insgesamt werden maxhor∙maxver Texturen benötigt, so dass z.B. bei einer Texturauflösung von 512∙512 Pixel und einer vertikalen und horizontalen Auflösung von 25 bzw. 15 etwa 280 MByte Texturspeicher benötigt werden. Dieser kann durch einen ausreichend dimensionierten Grafikspeicher realisiert werden.
  • Trotz der Rundungsfehler, die durch die Berechnung „Round" entstehen, erscheint der Übergang der Texturen sehr fließend. Die Rundungsfehler sind abhängig von der Diskretisierungsfeinheit der horizontalen und vertikalen Winkelschritte.
  • Dieser mögliche Verfahrensablauf, der den Preprocessing und den Visualisierungsschritt umfasst, ist in 2 angedeutet. Es sei bemerkt, dass der Visualisierungsschritt nach dem einmaligen Durchführen des Preprocessingschritts beliebig oft wiederholt werden und so der Gegenstand aus verschiedenen Perspektiven in Echtzeit betrachtet werden kann, ohne eine Verzerrung des dargestellten Gegenstands zu erhalten.
  • Die Erfindung ist nicht auf das beschriebene Ausführungsbeispiel beschränkt.
  • Insbesondere kann die Vergabe der Indizes für die Visualisierungsparameter und die Ermittlung des geeigneten Index für eine bestimmte Perspektive der Betrachtung auch auf andere Weise erfolgen. So können beispielsweise als Indizes in dem Preprocessingschritt die Rotationswinkel der Kamera bezüglich eines Fixpunkts vergeben werden, während die Kamera in der Kameraanimation die Rotationswinkel in Inkrementen durchläuft. In diesem Fall kann die Berechnung des Index im Visualisierungsschritt entfallen und unmittelbar durch den Vergleich der aktuellen Kameraposition im Visualisierungsschritt mit dem Index in dem Texturfeld die geeignete Textur ermittelt werden.
  • Weiterhin kann bei der Berechnung der Texturen erfindungsgemäß auch ein sogenanntes Beleuchtungsmodell, das auch Shader genannt wird, berücksichtigt werden. Dieser Shader bestimmt für den relevanten Geometriepunkt die Farbe, dargestellt durch einen Rot-Grün-Blau-Wert (RGB-Wert), sowie die Helligkeit des Geometriepunkts. Ansätze, die hierzu existieren, sind beispielsweise das Lambert-, Phong- oder Blinnshading.
  • In der dargestellten und beschriebenen Ausführungsform des Verfahrens wurde davon ausgegangen, dass die Texturen alle auf eine Geometrie, beispielsweise die Lichtabschlussscheibe, projiziert werden. Es ist aber auch möglich jede Textur auf eine eigene Geometrie zu projizieren oder zumindest einige Texturen auf eine und weitere Texturen auf eine andere Geometrie zu projizieren. Durch diese Vorgehensweise kann die Darstellungsqualität noch zusätzlich erhöht werden.
  • Mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung kann somit ein Mittel geschaffen werden, das auf einfache Weise eine sehr verzerrungsarme Darstellung von photorealistischen Heckleuchtentexturen und eine interaktive Designbeurteilung erlaubt. Weiterhin kann der Aufbereitungsprozess größtenteils automatisch erfolgen. Schließlich wird eine freie Interaktion um die zu begutachtende Heckleuchte ermöglicht.

Claims (8)

  1. Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter, in Form von Texturen der Oberflächenpunkte, für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) mittels eines Raytracingverfahrens ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden, und dass in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt wird und mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes erfolgt, wobei die Betrachtungsperspektive über einen Rotationswinkel (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jedem Parameter ein Index zugewiesen wird, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass in dem Visualisierungsschritt Parameter aus dem Parameterfeld ausgelesen werden, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass in dem Preprocessingschritt – um den darzustellenden Gegenstand eine Teilsphäre (S) gelegt wird, – diese Teilsphäre (S) in diskreten Schritten (αi, βj)(i,j) in den Höhen- (h) und Breitengraden (b) der Teilsphäre (S) durchlaufen wird, – für jeden diskreten Punkt der Teilsphäre (S), der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Textu ren mindestens einer der Oberflächen des Gegenstands (H) bestimmt werden, – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre (S), von dem aus diese berechnet wurden, beinhaltet, und – diese indizierten Texturen in ein Texturenfeld abgelegt werden, – und dass in dem Visualisierungsschritt eine Kameraanimation (K) verwendet wird, bei der die Kameraposition um einen in dem Gegenstand (H) befindlichen Fixpunkt (F) gedreht werden kann, – der Rotationswinkel (θ, ψ) der Kamera ermittelt wird, – aus diesem Rotationswinkel (θ, ψ) der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind und – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands (H) projiziert werden.
  5. Vorrichtung zur Darstellung eines computermodellierten Gegenstands (H) in Echtzeit, die zumindest eine Kameraanimationseinheit (K), mindestens eine Bestimmungseinheit für Parameter, die eine Berechnungseinheit von Texturen zur Berechnung auf der Basis des Raytracingverfahrens darstellt, mindestens einer Oberfläche des Gegenstands (H), mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition (θ, ψ), mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst, wobei die Freiheitsgrade der Kamera auf die Rotation (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) beschränkt sind.
  6. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Parameterauswahleinheit eine Vergleichseinheit darstellt, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.
  7. Vorrichtung nach einem der Ansprüche 6 oder 7, dadurch gekennzeichnet, dass diese mit einer Anzeigevorrichtung verbunden ist, die einen Monitor oder eine Powerwall darstellt.
  8. Vorrichtung nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass diese zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 4 geeignet ist.
DE2002146122 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands Withdrawn - After Issue DE10246122B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002146122 DE10246122B4 (de) 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002146122 DE10246122B4 (de) 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Publications (2)

Publication Number Publication Date
DE10246122A1 DE10246122A1 (de) 2004-04-15
DE10246122B4 true DE10246122B4 (de) 2006-04-20

Family

ID=32010138

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002146122 Withdrawn - After Issue DE10246122B4 (de) 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Country Status (1)

Country Link
DE (1) DE10246122B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045561A (zh) * 2016-12-26 2017-08-15 中国航空工业集团公司西安飞机设计研究所 一种金属球面框及其设计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725366A2 (de) * 1995-01-31 1996-08-07 Videologic Limited 3-D-Bildertexturierung und -schattierung
US20020097906A1 (en) * 2000-11-20 2002-07-25 Nec Corporation Method and apparatus for collating object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725366A2 (de) * 1995-01-31 1996-08-07 Videologic Limited 3-D-Bildertexturierung und -schattierung
US20020097906A1 (en) * 2000-11-20 2002-07-25 Nec Corporation Method and apparatus for collating object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GENC, S.; ATALAY, V.: Texture extraction from photographs and rendering with dynamic texture mapping. Proc.Int. Conference on Image Analysis and Processing, 1999, S. 1055-1058 *

Also Published As

Publication number Publication date
DE10246122A1 (de) 2004-04-15

Similar Documents

Publication Publication Date Title
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE69718291T2 (de) Verfahren und gerät zur erzeugung eines computergrafikbildes
DE68928391T2 (de) Bildgenerator
DE69610341T2 (de) 3-D-Bildertexturierung und -schattierung
DE3855231T2 (de) Prioritätsauflösungssystem zwischen Polygonen mit Antialiasing
EP3178068B1 (de) Verfahren, visualisierungsvorrichtung und computerprogrammprodukt zur visualisierung eines dreidimensionalen objekts
DE69430647T2 (de) Bilddarstellung
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
WO2003036566A2 (de) Verfahren und vorrichtung zur erzeugung lichtmikroskopischer, dreidimensionaler bilder
EP0789328A2 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
EP0984397A2 (de) Verfahren und Vorrichtung zum Eliminieren unerwünschter Stufungen an Kanten bei Bilddarstellungen im Zeilenraster
DE69901572T2 (de) Verfahren zur volumetrischen bilddatenverarbeitung eines durch texturabbildung visualisierten objektes
DE102019005885A1 (de) Umgebungskartengenerierung und Lochfüllung
DE20203367U1 (de) Frühzeitige Visualisierung von Designideen im Ton-/Designmodell
DE10246122B4 (de) Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands
EP3188131B1 (de) Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
DE102008016553A1 (de) Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene
DE69826996T2 (de) Scheinwerfer-kennzeichnende erzeugungsverfahren und bildprozessor-verwendung
DE102005061590A1 (de) Verfahren zur Visualisierung komplexer Lichtverteilungssätze technischer Beleuchtungssysteme
EP0865002A2 (de) Verfahren und Vorrichtung zur Darstellung computermodellierter Objekte
AT503743B1 (de) Verfahren zur rechnergestützten darstellung von objekten
DE102015120927A1 (de) Verfahren zur Darstellung einer Simulationsumgebung
WO2007085482A1 (de) Verfahren zur erzeugung und darstellung räumlich wahrnehmbarer bilder
EP4068198B1 (de) Verfahren zur erzeugung eines bilds eines objekts, computerprogrammprodukt und bilderzeugungssystem zur durchführung des verfahrens
DE102018116173A1 (de) Betreiben eines Fahrassistenzsystems für ein Kraftfahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R120 Application withdrawn or ip right abandoned
R120 Application withdrawn or ip right abandoned

Effective date: 20130722