Graphics Reference
In-Depth Information
Eine Effizienzverbesserung lässt sich durch Realisierung dieser Kohärenzbe-
trachtungen erreichen:
Schneidet der Strahl eine Facette, brauchen Schnitte mit dahinterliegenden Fa-
cetten nicht berechnet zu werden.
Die Facette, die von einem Strahl getroffen wird, wird wahrscheinlich auch vom
Strahl durch das Nachbarpixel getroffen.
Benachbarte Pixel liegen meistens auf der gleichen Facette.
Eine Effizienzverbesserung lässt sich auch durch Unterteilung der Projektionsfläche
erreichen, beispielsweise durch einen QuadTree, wie im Abschn. 5.2.3 beschrieben.
Trotzdem bleibt das ganze Procedere recht unökonomisch. Ein Vergleich mit dem
Z-Buffer macht das deutlich:
RayCasting
Z-Buffer
Es wird der gesamte Pixelbereich der Projek-
tionsfläche abgeklappert und für jedes Pixel
geprüft, ob überhaupt und welche Facetten im
Bereich des Strahls liegen. Für die vom Strahl
geschnittenen Facetten sind die Z-Werte zu
berechnen. Die Facette mit dem kleinsten Z-
Wert ist sichtbar und färbt das Pixel.
Es werden nur die Pixel angefasst, die von
einer Facette überdeckt werden. In die Tiefe
gestaffelte Facetten im gleichen Pixelbereich
lösen die Verdeckung über den Vergleich ihrer
Z-Werte automatisch. Es sind weder Schnitt-
punkte zu berechnen noch ihre Lage innerhalb
der Facette zu prüfen.
RayCasting hat für die Verdeckungsberechnung wenig Bedeutung, wird aber als
Weiterentwicklung zum klassischem RayTracing für die Darstellung von Beleuch-
tung und Schatten zum dominierenden Verfahren. RayCasting wird oftmals als eine
vereinfachte Form des RayTracing bezeichnet, weil das Verfahren mit dem Ab-
tasten und Aufeinandertreffen des Strahls auf eine Facette beendet ist und damit
tatsächlich nur eine Verdeckungsberechnung erfolgt.
Beim RayTracing wird der Schnittpunkt nicht nur dazu benutzt, die vorderste
Facette zu berechnen, sondern er wird weiterverfolgt. Auch ist es möglich, Licht
und Schatten in die Visualisierung einzubeziehen.
Mit dem Thema „Verdeckungen“ sind die ingenieurtechnischen Belange norma-
lerweise abgedeckt. Weitergehende, realistischere Visualisierungen erfordern die
Simulation der Beleuchtungsverhältnisse einer Szene. Damit begibt man sich auf
das Gebiet der (foto-)realistischen Bildsynthese.
9.6 Beleuchtungsmodelle
Mathematische Nachbildung der Beleuchtungsverhältnisse in einer Szene mit dem
Ziel, möglichst realitätsnahe 3D-Computergrafiken zu erzeugen. [Lexi]
Es gibt eine Vielzahl von Beleuchtungsmodellen, die jeweils mehr oder weniger
realistische Bilder liefern. Am einfachsten ist ein lokales Beleuchtungsmodell, in
Search WWH ::




Custom Search