Graphics Reference
In-Depth Information
untersucht. Die Genauigkeit der Berechnungen ist prinzipiell auf 1 Pixel begrenzt,
daran ändern auch große Bildschirme nichts. Die Auflösung von heutigen TFT-
Bildschirmen liegt bei ca. 90-100 Pixel = Zoll ganz unabhängig von deren Bild-
schirmgröße. Bildraumverfahren erfordern normalerweise viele einfache Tests. Lo-
kale Skalierungen sind nicht möglich.
Scanlinealgorithmen (ca. 1960) lösen das Verdeckungsproblem bildzeilenwei-
se. Sie nutzen die Tatsache aus, dass durch die Zeile für Zeile erfolgende Arbeits-
weise das Problem der Verdeckung von drei auf zwei Dimensionen reduziert
wird. Weiterhin ist eine aktive Kantentabelle erforderlich, die alle Kanten ent-
hält, die die aktuell verarbeitete Bildzeile schneiden. Horizontale Kanten werden
ignoriert. Die Sichtbarkeit wird durch Vergleich aller Kantenpaare mit den be-
rechneten Z-Koordinaten der Kanten punktweise festgestellt.
Watkinalgorithmus ist die Erweiterung eines Scanlineverfahrens, wobei die
Z-Werte stets neu berechnet, aber nicht gespeichert werden. Ein historisches Ver-
fahren aus der Sichtsimulation.
Warnock (1968) geht davon aus, dass das Bild in rechteckige Regionen unter-
teilt werden kann, in denen nur noch eine Facette den Bildinhalt bestimmt. Ist
dies nicht der Fall, wird so lange rekursiv unterteilt, bis entweder nur eine Facette
enthalten ist oder die Region nur noch 1 Pixel einschließt (ähnlich BSP ).
Z-Buffer (1974) speichert für jedes Pixel einen Farbwert und seine Bildtiefe,
ausgehend von der Farbe des Hintergrundes und dessen Entfernung vom Beob-
achter. Bei Bearbeitung der Facetten wird für das aktuelle Pixel der Farbwert und
die Bildtiefe im Z-Puffer nur dann aktualisiert, wenn es näher zum Beobachter
liegt als die schon eingetragene Bildtiefe. Z-Buffer besagt nur, dass die Bildtiefe
in Z-Richtung orientiert ist und folglich auf die XY-Ebene projiziert wird.
Hybride Verfahren
lösen die Aufgaben teils im Objektraum, teils im Bildraum.
RayCasting ist eine abgespeckte Version von RayTracing, arbeitet zunächst im
Objektraum und nutzt das Prinzip der Strahlverfolgung. Vom Beobachterstand-
ort wird nacheinander ein Strahl durch jedes Pixel der Projektionsebene in die
3D-Szene geschickt und der Schnittpunkt mit Facetten bestimmt. Die Facette
mit dem nächstgelegenen Schnittpunkt ist sichtbar. Gibt es keinen Schnittpunkt,
dann gilt die Hintergrundfarbe.
RayTracing (1963) ist das dominierende Verfahren für die Darstellung von Be-
leuchtung und Schatten. Es wird der Schnittpunkt nicht nur dazu benutzt, die
vorderste Facette zu berechnen, sondern der Strahl wird weiterverfolgt. Es gibt
dann zwei Möglichkeiten: Entweder wurde er an der Facette gespiegelt oder ge-
brochen, meistens treten beide Effekte gemeinsam auf. Und deswegen handelt
es sich eigentlich nicht mehr um einen Sehstrahl, sondern um einen Lichtstrahl.
Search WWH ::




Custom Search