[go: up one dir, main page]

DE10246122A1 - Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands - Google Patents

Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands Download PDF

Info

Publication number
DE10246122A1
DE10246122A1 DE2002146122 DE10246122A DE10246122A1 DE 10246122 A1 DE10246122 A1 DE 10246122A1 DE 2002146122 DE2002146122 DE 2002146122 DE 10246122 A DE10246122 A DE 10246122A DE 10246122 A1 DE10246122 A1 DE 10246122A1
Authority
DE
Germany
Prior art keywords
textures
index
parameters
determined
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2002146122
Other languages
English (en)
Other versions
DE10246122B4 (de
Inventor
Andreas Dipl.-Math. Reich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE2002146122 priority Critical patent/DE10246122B4/de
Publication of DE10246122A1 publication Critical patent/DE10246122A1/de
Application granted granted Critical
Publication of DE10246122B4 publication Critical patent/DE10246122B4/de
Anticipated expiration legal-status Critical
Withdrawn - After Issue legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Darstellung eines computermodellierten Gegenstands (H), das einen Preprocessing- und einen Visualisierungsschritt umfasst, das dadurch gekennzeichnet ist, dass in dem Preprocessingschritt Parameter für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) ermittelt und in ein Parameterfeld abgelegt werden, wobei die Paramter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden. Weiterhin betrifft die Erfindung eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands (H), die zumindest eine Kameraanimationseinheit (K), mindestens eine Bestimmungseinheit für Parameter mindestens einer Oberfläche des Gegenstands, mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Indexes aus der Kameraposition (THETA, PSI), mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands, insbesondere zur Darstellung eines virtuellen Prototypen von Produkten.
  • Bei der Entwicklung neuer Produkte, insbesondere bei der Enfinricklung neuer Kraftfahrzeugkomponenten, ist es in der Entwicklungsphase notwendig, einen Prototypen zu erzeugen. Anhand des Prototypen sollen insbesondere Designaspekte beurteilt werden können. Zudem sollen die sich oft widersprechenden Anforderungen von Technik, Gesetz und Design aufeinander abgestimmt werden. Da die Entwicklungszeiträume immer kürzer werden, hat es sich bewährt, anstelle der Herstellung von Prototypen sogenannte virtuelle Prototypen zu verwenden. Diese virtuellen Prototypen können für die Unterstützung des Entwicklungsprozesses, aber auch für die Entscheidungsfindung bei der Wahl zwischen verschiedenen Designs verwendet werden.
  • Die virtuellen Prototypen müssen die Anforderung erfüllen, eine photorealistische Visualisierung des Produkts zu geben, die etwa die gleiche Beurteilungsbasis wie ein tatsächlicher Prototyp liefert.
  • Als eine Visualisierungsmethode ist beispielsweise das Z-Bufferverfahren bekannt. Bei diesem Verfahren werden die einzelnen Geometriepartikel des Produkts (in der Regel Dreiecke) auf eine Kameraebene abgebildet und jeweils deren Abstand zu der Ebene abgespeichert. Es kann nun in jedem Punkt leicht bestimmt werden, welches Partikel am nächsten zur Kameraebene liegt. Die Farbe dieses Partikels wird in diesem Punkt dargestellt. Im Falle von transparenten Objekten wird neben dem vorderen transparenten Flächenstück auch die dahinterliegende Geometrie in abgeschwächter Form dargestellt.
  • Z-Bufferalgorithmen sind sehr einfach aufgebaut und können fest in einer Grafikhardware implementiert werden. Die daraus resultierende Geschwindigkeit ermög licht es, große Datenmengen in Echtzeit darzustellen. Allerdings wird bei diesem Verfahren jedes Geometriepartikel isoliert von der Umgebung betrachtet, so dass in reflektierenden Objekten die Umgebung nicht realistisch dargestellt werden kann. Mit Hilfe sogenannter Environmentmaps kann der Eindruck von reflektierenden Oberflächen erzeugt werden. Um den darzustellenden Oberflächenpunkt wird dabei eine Sphäre gelegt, auf der eine Textur die zu reflektierende Umgebung darstellt. Der Sichtstrahl des Betrachters zum Oberflächenpunkt wird an der Oberfläche gespiegelt und der entsprechende Farbpunkt auf der Sphäre kennzeichnet den im Oberflächenpunkt sichtbaren Farbwert. Durch die Verwendung von Environmentmaps scheint sich zwar etwas in der Oberfläche zu spiegeln, Umgebungselemente sind durch diese Technik aber nicht sichtbar. Neben der mangelnden Darstellung von Reflektionen sind Refraktionen – die Brechung des Lichtstrahls in einem teiltransparenten Objekt – nicht möglich.
  • Neben dem Z-Bufferverfahren ist als weitere Visualisierungsmethode das sogenannte Raytracingverfahren bekannt. Das Raytracingverfahren verfolgt einen vollständig anderen Ansatz. Ausgehend von einem Betrachter werden Strahlen in den Raum geschickt. Trifft der Strahl auf eine Oberfläche auf, so wird er, je nach Oberflächeneigenschaften, diffus gestreut, reflektiert, oder aber er tritt refraktiv in das Objekt ein. Eine Kombination der drei Möglichkeiten ist vorstellbar. In diesem Fall wird der Strahl in mehrere Strahlen aufgeteilt, einer wird an der Oberfläche reflektiert, der zweite tritt unter Beachtung eines Brechungsindex in das Objekt ein. Die jeweils neu erzeugten Strahlen werden weiter verfolgt und eventuell erneut reflektiert oder innerhalb anderer Objekte gebrochen. Der Farbwert, des Oberflächenpunkts ist die gewichtete Mischung der Farbwerte der beiden Strahlen sowie der Oberflächenfarbe an diesem Punkt.
  • Die Datenstruktur, die zum Durchführen eines solchen Verfahrens notwendig ist, ist im Vergleich zu der Datenstruktur des Z-Bufferverfahrens wesentlich komplexer. In der Regel wird eine baumartige Datenstruktur benötigt. Aufgrund dieser Komplexität kann dieses Verfahren in der Regel nicht als Hardwarelösung implementiert werden. Die Berechnungszeit kann darüber hinaus, je nach Komplexität der dargestellten Geometrie, sehr lang sein. Allerdings kann mit dieser Methode eine sehr hohe Qualität der Darstellung erzielt werden.
  • Schließlich ist für die aussagekräftige Beurteilung von virtuellen Designmodellen neben der Darstellungsqualität das Darstellungsmedium von großer Bedeutung. Ein mögliches Medium ist die Echtzeitvisualisierung. Hierbei muss zur Gewährleistung des Echtzeitanspruchs als Visualisierungsverfahren das Z-Bufferverfahren verwendet werden. Refraktionen sind allerdings nicht darstellbar und Reflektionen können nur mittels Environmenttexturen angedeutet werden.
  • In der Echtzeitvisualisierung werden komplexe Strukturen über Texturen dargestellt, vergleichbar mit Bildern, die auf eine Oberfläche geklebt werden. Dadurch ist es möglich, die Menge der darzustellenden Geometrie zu reduzieren und optische Effekte als planares Abbild darzustellen. Diese Texturen können sehr realistisch wirken, besitzen aber den großen Nachteil, dass diese gerade bei einer dargestellten Tiefenwirkung der Geometrie nur aus der Perspektive, aus der sie aufgenommen wurden, realistisch aussehen. In anderen Perspektiven wirken sie verzerrt und sind nicht verwendbar. Es ist somit nicht möglich, mit Hilfe einer auf eine Ebene projizierten Textur den aktuellen Konstruktionsstand aus Designsicht zu diskutieren.
  • Aufgabe der vorliegenden Erfindung ist daher die Bereitstellung eines Verfahrens und einer Vorrichtung zur verzerrungsfreien Darstellung eines Produkts in einer Echtzeitvisualisierung, die eine hohe Interaktivität erlaubt. Insbesondere soll die Darstellung auch dann verzerrungsfrei sein, wenn das Produkt aus unterschiedlichen Perspektiven betrachtet wird. Gleichzeitig soll die Darstellungsqualität hoch sein.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass diese Aufgabe ideal gelöst werden kann durch ein Verfahren und eine Vorrichtung, die die unterschiedlichen möglichen Positionen eines Betrachters bei der Ermittlung der für die Darstellung notwendigen Parameter berücksichtigen.
  • Die Aufgabe wird daher gelöst durch ein Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden.
  • Unter Perspektive der Betrachtung wird im Sinne dieser Erfindung die Position und Orientierung eines Betrachters oder einer Kamera bezüglich des Gegenstands verstanden. Durch die Bestimmung von Parametern für unterschiedliche Perspektiven können in dem Parameterfeld sämtliche Parameter abgelegt werden, die für mögliche Positionen und Blickwinkel eines Betrachters erforderlich sind. Eine Berechnung dieser Parameter während einer Visualisierung kann daher entfallen und eine Echtzeitvisualisierung kann daher ermöglicht werden.
  • Unter Parametern werden im Sinne dieser Erfindung Visualisierungsparameter verstanden. Diese Parameter stellen vorzugsweise Texturen der Oberflächenpunkte der mindestens einen Oberfläche dar. Besonders bevorzugt werden die Visualisierungsparameter auf der Basis des Raytracingverfahrens ermittelt. Dadurch können auch Reflektionen und Refraktionen innerhalb des Gegenstands korrekt dargestellt werden und die Darstellungsqualität kann deutlich verbessert werden. Die Verwendung des Raytracingverfahrens ist für die Echtzeitvisualisierung nur mit dem erfindungsgemäßen Verfahren möglich. Da die Parameter, insbesondere die Texturen, in einem Preprocessingschritt berechnet werden, beeinflussen die für das Raytracingverfahren notwendigen langen Rechnungszeiten die Echtzeitwirkung nicht. Aus diesem Grund können mit dem erfindungsgemäßen Verfahren auch komplexere Gegenstände, die zumindest teilweise reflektierende oder teildurchsichtige Bestandteile aufweisen, in hoher Qualität in Echtzeit dargestellt werden. Einen solchen Gegenstand stellen beispielsweise Beleuchtungselemente, wie die Heckleuchten eines Kraftfahrzeugs, dar.
  • Vorzugsweise wird jedem Parameter ein Index zugewiesen, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet. Durch die Zuweisung von Indices können bei einer späteren Ausgabe der Visualisierungsparameter diejenigen Parameter gemeinsam ausgelesen werden, die für eine bestimmte Betrachtungsperspektive aufgenommen wurden.
  • In dem Visualisierungsschritt werden daher bevorzugt Parameter aus dem Parameterfeld ausgelesen, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden. Die Betrachtungsperspektive wird vorzugsweise über einen Rotationswinkel um einen Fixpunkt in dem dazustellenden Gegenstand bestimmt.
  • Das erfindungsgemäße Verfahren kann in einer Ausführungsform so ausgelegt sein, dass in dem Preprocessingschritt
    • – um den darzustellenden Gegenstand eine Teilsphäre gelegt wird,
    • – diese Teilsphäre in diskreten Schritten in den Höhen- und Breitengraden der Teilsphäre durchlaufen wird,
    • – für jeden diskreten Punkt der Teilsphäre, der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Texturen mindestens einer der Oberflächen des Gegenstands bestimmt werden,
    • – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre, von dem aus diese berechnet wurden, beinhaltet, und
    • – diese indizierten Texturen in ein Texturenfeld abgelegt werden,
    • – und dass in dem Visualisierungsschritt eine Kameraanimation verwendet wird, bei der die Kameraposition um einen in dem Gegenstand befindlichen Fixpunkt gedreht werden kann,
    • – der Rotationswinkel der Kamera ermittelt wird,
    • – aus diesem Rotationswinkel der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind, und
    • – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands projiziert werden.
  • Die der Erfindung zugrunde liegende Aufgabe wird weiterhin gelöst durch eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands, die zumindest eine Kameraanimationseinheit, mindestens eine Bestimmungseinheit für Parameter mindestens einer Oberfläche des Gegenstands, mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition, mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst. Die Einheiten der Vorrichtung können als Vorrichtungen oder als Software-Programm vorliegen. Es ist auch möglich, dass mehrere Einheiten zusammengefasst sind.
  • Vorzugsweise stellt die Bestimmungseinheit für Parameter eine Berechnungseinheit von Texturen vorzugsweise zur Berechnung auf der Basis des Raytracingverfahrens dar.
  • Die Parameterauswahleinheit kann eine Vergleichseinheit darstellen, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.
  • Vorzugsweise ist die erfindungsgemäße Vorrichtung mit einer Anzeigevorrichtung verbunden, die einen Monitor oder eine Powerwall darstellt. Über diese Anzeigevorrichtungen können die ermittelten Darstellungen des Gegenstands ausgegeben werden. Zusätzlich ist in der Regel eine Eingabevorrichtung vorgesehen, die beispielsweise eine Tastatur oder ein Touchpad darstellen kann und mittels derer die Betrachtungsposition bzw. die Kameraposition verändert werden kann.
  • Die erfindungsgemäße Vorrichtung ist zur Ausführung des erfindungsgemäßen Verfahrens geeignet.
  • Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, gelten ebenso für die erfindungsgemäße Vorrichtung und umgekehrt.
  • Die Erfindung soll im Folgenden anhand einer Ausführungsform des Verfahrens an dem Beispiel der Darstellung einer Heckleuchte eines Kraftfahrzeugs erläutert werden. Hierzu wird Bezug auf die Figuren genommen. Es zeigen:
  • 1: eine schematische Darstellung einer Heckleuchte mit der durch eine Kameraanimation gebildeten Späre um die Heckleuchte; und
  • 2: ein Flussdiagramm des Ablaufs einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • Eine Heckleuchte besteht in der Regel im wesentlichen aus den im Folgenden genannten Komponenten: Sie umfasst ein Gehäuse, das reflektierend ausgestaltet ist und in dem Reflektoren eingebettet sind, fünf Lampen, zwei Zusatzlichtscheiben, die über dem Rück-, Brems- und Nebelschlusslicht bzw. über dem Rückfahr- und Blinklicht angeordnet sind, und eine Lichtabschlussscheibe. Zur Darstellung der Heckleuchte wird die Lichtabschlussscheibe als die Oberfläche verwendet, für die die Texturen bestimmt werden bzw. auf die die Texturen projiziert werden.
  • Erfindungsgemäß werden die Texturen eines jeden Oberflächenpunkts für verschiedene Perspektiven, die der Betrachter einnehmen kann, bestimmt. Hierzu kann, wie in 1 gezeigt, in der Visualisierungssoftware eine Kameraanimation mit einer Kamera K aufgebaut werden, in der in einer Teilsphäre S um die Heckleuchte H, die in 1 nur schematisch angedeutet ist, die Höhen- (h) und Breitengrade (b) der Sphäre systematisch in diskreten Schritten (αi, βj)(i,j) mit αi ∊ [αmin, αmax], i ∊ [0, maxhor] βj ∊ [βmin, βmax], j ∊ [0, max ver]durchlaufen werden. Die Form der Sphäre wird dem darzustellenden Gegenstand angepasst. Bei einer Heckleuchte kann beispielsweise eine Halbkugel ausreichen.
  • Durch das Durchlaufen der verschiedenen Positionen entsteht somit eine Folge von Visualisierungen der Heckleuchte. Diese Visualisierungen werden vorzugsweise auf der Basis des Raytracingverfahrens erhalten, damit Reflektionen und Refraktionen innerhalb der Heckleuchte korrekt dargestellt werden können. Die Visualisierungsdaten erhalten beim Durchlaufen der Höhen- und Breitengrade einen laufenden Index, der zu jeder Höhen- und Breitenposition (αi, βj) innerhalb der Diskretisierung eindeutig eine Textur zuordnet. Nach der Vergabe des Index werden die Texturen aufbereitet, bevor diese in einem Texturfeld abgelegt werden.
  • Innerhalb des Echtzeitvisualisierungssysterns werden die Freiheitsgrade der Kamera auf die Rotation (θ, ψ) um einen Fixpunkt F innerhalb der Heckleuchte eingeschränkt. Dadurch ist gewährleistet, dass der Betrachter nur Positionen einnehmen kann, für die in dem Preprocessingschritt die relevanten Texturen aufgenommen wurden. Bei einer Änderung der Perspektive des Betrachters wird eine Neutexturierung der Lichtabschlussscheibe der Heckleuchte bewirkt. Eine Verzerrung der Darstellung erfolgt hierbei nicht, da für jede mögliche Position des Betrachters die Texturen im Vorfeld ermittelt wurden. Die Entfernung r der Kamera zu dem Fixpunkt ist frei wählbar. Der Qualitätsverlust durch die Skalierung der Textur bei einer Annäherung des Betrachters an die Heckleuchte kann mit Hilfe einer ausreichenden Texturgröße entgegen gewirkt werden.
  • Abhängig von dem Rotationswinkel (θ, ψ) der Kamera kann eindeutig die geeignetste Textur mit dem Index Index im Texturfeld ermittelt werden und auf die Lichtabschlussscheibe der Heckleuchte projiziert werden. Hierbei wird der Index nach folgender Formel aus dem Rotationswinkel berechnet:
    Figure 00070001
    wobei αmin und αimax bzw. βmi n und βimax die minimalen und maximalen Höhen- bzw. Breitengrade der in dem Preprocessingschritt gewählten Teilsphäre, und maxhor und maxver die maximale Anzahl der diskreten Schritte, die im Preprocessingschritt in horizontaler und vertikaler Richtung durchlaufen wurden, sind.
  • Die Indizierung der Texturen beginnt mit 0. Insgesamt werden maxhor·maxver Texturen benötigt, so dass z.B. bei einer Texturauflösung von 512·512 Pixel und einer vertikalen und horizontalen Auflösung von 25 bzw. 15 etwa 280 MByte Texturspeicher benötigt werden. Dieser kann durch einen ausreichend dimensionierten Grafikspeicher realisiert werden.
  • Trotz der Rundungsfehler, die durch die Berechnung „Round" entstehen, erscheint der Übergang der Texturen sehr fließend. Die Rundungsfehler sind abhängig von der Diskretisierungsfeinheit der horizontalen und vertikalen Winkelschritte.
  • Dieser mögliche Verfahrensablauf, der den Preprocessing und den Visualisierungsschritt umfasst, ist in 2 angedeutet. Es sei bemerkt, dass der Visualisierungsschritt nach dem einmaligen Durchführen des Preprocessingschritts beliebig oft wiederholt werden und so der Gegenstand aus verschiedenen Perspektiven in Echtzeit betrachtet werden kann, ohne eine Verzerrung des dargestellten Gegenstands zu erhalten.
  • Die Erfindung ist nicht auf das beschriebene Ausführungsbeispiel beschränkt.
  • Insbesondere kann die Vergabe der Indizes für die Visualisierungsparameter und die Ermittlung des geeigneten Index für eine bestimmte Perspektive der Betrachtung auch auf andere Weise erfolgen. So können beispielsweise als Indizes in dem Preprocessingschritt die Rotationswinkel der Kamera bezüglich eines Fixpunkts vergeben werden, während die Kamera in der Kameraanimation die Rotationswinkel in Inkrementen durchläuft. In diesem Fall kann die Berechnung des Index im Visualisierungsschritt entfallen und unmittelbar durch den Vergleich der aktuellen Kameraposition im Visualisierungsschritt mit dem Index in dem Texturfeld die geeignete Textur ermittelt werden.
  • Weiterhin kann bei der Berechnung der Texturen erfindungsgemäß auch ein sogenanntes Beleuchtungsmodell, das auch Shader genannt wird, berücksichtigt werden. Dieser Shader bestimmt für den relevanten Geometriepunkt die Farbe, dargestellt durch einen Rot-Grün-Blau-Wert (RGB-Wert), sowie die Helligkeit des Geometriepunkts. Ansätze, die hierzu existieren, sind beispielsweise das Lambert-, Phong- oder Blinnshading.
  • In der dargestellten und beschriebenen Ausführungsform des Verfahrens wurde davon ausgegangen, dass die Texturen alle auf eine Geometrie, beispielsweise die Lichtabschlussscheibe, projiziert werden. Es ist aber auch möglich jede Textur auf eine eigene Geometrie zu projizieren oder zumindest einige Texturen auf eine und weitere Texturen auf eine andere Geometrie zu projizieren. Durch diese Vorgehensweise kann die Darstellungsqualität noch zusätzlich erhöht werden.
  • Obwohl erfindungsgemäß die Bestimmung der Textur auf der Basis des Raytracingverfahrens bevorzugt ist, ist es auch möglich, in dem Preprocessingschritt die Texturen über ein anderes Verfahren, wie beispielsweise das Z-Bufferverfahren zu bestimmen. Die Ergebnisse weisen allerdings eine schlechtere Qualität auf, so dass dieses Verfahren nur bei sehr komplexen Gegenständen oder in Ermangelung eines ausreichenden Graphikspeichers verwendet werden wird.
  • Mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung kann somit ein Mittel geschaffen werden, das auf einfache Weise eine sehr verzerrungsarme Darstellung von photorealistischen Heckleuchtentexturen und eine interaktive Designbeurteilung erlaubt. Weiterhin kann der Aufbereitungsprozess größtenteils automatisch erfolgen. Schließlich wird eine freie Interaktion um die zu begutachtende Heckleuchte ermöglicht.

Claims (12)

  1. Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Parameter Texturen der Oberflächenpunkte der mindestens einen Oberfläche darstellen.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Texturen mittels Raytracingverfahren ermittelt werden.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jedem Parameter ein Index zugewiesen wird, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in dem Visualisierungsschritt Parameter aus dem Parameterfeld ausgelesen werden, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Betrachtungsperspektive über einen Rotationswinkel (θ, ψ) um einen Fixpunkt (F) in dem dazustellenden Gegenstand (H) bestimmt wird
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass in dem Preprocessingschritt – um den darzustellenden Gegenstand eine Teilsphäre (S) gelegt wird, – diese Teilsphäre (S) in diskreten Schritten (αi, βj)(i,j) in den Höhen- (h) und Breitengraden (b) der Teilsphäre (S) durchlaufen wird, – für jeden diskreten Punkt der Teilsphäre (S), der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Texturen mindestens einer der Oberflächen des Gegenstands (H) bestimmt werden, – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre (S), von dem aus diese berechnet wurden, beinhaltet, und – diese indizierten Texturen in ein Texturenfeld abgelegt werden, – und dass in dem Visualisierungsschritt eine Kameraanimation (K) verwendet wird, bei der die Kameraposition um einen in dem Gegenstand (N) befindlichen Fixpunkt (F) gedreht werden kann, – der Rotationswinkel (θ, ψ) der Kamera ermittelt wird, – aus diesem Rotationswinkel (θ, ψ) der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind und – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands (H) projiziert werden.
  8. Vorrichtung zur Darstellung eines computermodellierten Gegenstands (H), die zumindest eine Kameraanimationseinheit (K), mindestens eine Bestimmungseinheit für Parameter mindestens einer Oberfläche des Gegenstands (N), mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition (θ, ψ), mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Bestimmungseinheit für Parameter eine Berechnungseinheit von Texturen vorzugsweise zur Berechnung auf der Basis des Raytracingverfahrens darstellt.
  10. Vorrichtung nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass die Parameterauswahleinheit eine Vergleichseinheit darstellt, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.
  11. Vorrichtung nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass diese mit einer Anzeigevorrichtung verbunden ist, die einen Monitor oder eine Powerwall darstellt.
  12. Vorrichtung nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass diese zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 7 geeignet ist.
DE2002146122 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands Withdrawn - After Issue DE10246122B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002146122 DE10246122B4 (de) 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002146122 DE10246122B4 (de) 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Publications (2)

Publication Number Publication Date
DE10246122A1 true DE10246122A1 (de) 2004-04-15
DE10246122B4 DE10246122B4 (de) 2006-04-20

Family

ID=32010138

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002146122 Withdrawn - After Issue DE10246122B4 (de) 2002-10-01 2002-10-01 Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Country Status (1)

Country Link
DE (1) DE10246122B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045561A (zh) * 2016-12-26 2017-08-15 中国航空工业集团公司西安飞机设计研究所 一种金属球面框及其设计方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725366A2 (de) * 1995-01-31 1996-08-07 Videologic Limited 3-D-Bildertexturierung und -schattierung

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4167390B2 (ja) * 2000-11-20 2008-10-15 日本電気株式会社 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725366A2 (de) * 1995-01-31 1996-08-07 Videologic Limited 3-D-Bildertexturierung und -schattierung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GENC, S.; ATALAY, V.: Texture extraction from photographs and rendering with dynamic texture mapping. Proc.Int. Conference on Image Analysis and Processing, 1999, S. 1055-1058 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045561A (zh) * 2016-12-26 2017-08-15 中国航空工业集团公司西安飞机设计研究所 一种金属球面框及其设计方法

Also Published As

Publication number Publication date
DE10246122B4 (de) 2006-04-20

Similar Documents

Publication Publication Date Title
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE102009041431B4 (de) Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
DE68928391T2 (de) Bildgenerator
EP3178068B1 (de) Verfahren, visualisierungsvorrichtung und computerprogrammprodukt zur visualisierung eines dreidimensionalen objekts
DE69718291T2 (de) Verfahren und gerät zur erzeugung eines computergrafikbildes
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE102004007835A1 (de) Vorrichtung zur Darstellung von dynamischen komplexen Szenen
EP0789328A2 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
DE69901572T2 (de) Verfahren zur volumetrischen bilddatenverarbeitung eines durch texturabbildung visualisierten objektes
DE60002487T2 (de) Verfahren und vorrichtung zur darstellung von bildern mit brechungen
DE102019005885A1 (de) Umgebungskartengenerierung und Lochfüllung
DE102006059922A1 (de) Verfahren zum Darstellen eines Kartenausschnittes in einem Navigationssystem und Navigationssystem
EP3188131B1 (de) Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
DE102005061590A1 (de) Verfahren zur Visualisierung komplexer Lichtverteilungssätze technischer Beleuchtungssysteme
EP0865002B1 (de) Verfahren und Vorrichtung zur Darstellung computermodellierter Objekte
DE10246122B4 (de) Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands
DE69826996T2 (de) Scheinwerfer-kennzeichnende erzeugungsverfahren und bildprozessor-verwendung
EP4068198B1 (de) Verfahren zur erzeugung eines bilds eines objekts, computerprogrammprodukt und bilderzeugungssystem zur durchführung des verfahrens
DE19714915A1 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE69233060T2 (de) System zur Anzeige von räumlichen Einschnitten für Festkörpermodellflächen
AT503743B1 (de) Verfahren zur rechnergestützten darstellung von objekten
DE102015120927A1 (de) Verfahren zur Darstellung einer Simulationsumgebung
WO2007085482A1 (de) Verfahren zur erzeugung und darstellung räumlich wahrnehmbarer bilder
DE10331231B4 (de) Verfahren zur Übertragung von Tiefeninformationen in den Tiefenspeicher einer Grafikkarte für die Darstellung von 3D-Panoramabildern
DE102022133881A1 (de) Head-up-Display mit einem kombinierten Anzeigebereich

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R120 Application withdrawn or ip right abandoned
R120 Application withdrawn or ip right abandoned

Effective date: 20130722