Mit Half-Life 2: Episode Two werden auch neue Techniken und Grafikfeatures in die Source-Engine integriert.
Welche das genau sind, was sie können und was sie bringen erfährt ihr auf dieser Seite.
Soft Particles
Partikel nutzt man in Computerspielen dazu, Effekte wie Rauch, Staub oder Blut darzustellen.
Es werden dazu mehrere 2-Dimensionale Sprites genutzt, die zusammen beispielsweise einen
volumetrischen Rauch ergeben. Für Episode Two wurde dieses System überarbeitet, es können nun
komplexere Abläufe der Sprites gezeigt werden, außerdem profitiert das Partikel-System von
Multicore-CPUs. Die wichtigste Erneuerung sind aber die Soft Particles. Wie bereits weiter
oben erwähnt, bestehen diese Effekte aus einzelnen 2-Dimensionalen Bildern. Wenn sich diese
nun überlappen bzw. durch Levelgeometrie bewegen, entstehen unschöne Kanten. Diese werden
durch die Soft Particle-Technologie stark reduziert bzw. verschwinden komplett.
Cinematic Physics
Dieses Feature gehört wohl zu den imposantesten Erneuerungen in der zweiten Episode. Valve hat
sich dafür Unterstützung aus der Filmbranche geholt, genauer gesagt Gray Horsfield, ehemaliger
Mitarbeiter der Special Effects Firma Weta. Er war unter anderem für die Zerstörungsszenen
in den drei Herr der Ringe Filmen und Peter Jacksons King Kong verantwortlich. Und zum Zerstören
gibts auch in Episode Two genug, mit dieser neuen Technik können nicht nur Kisten und das Möbilar
zerlegt werden, sondern gleich ganze Häuser oder Brücken realistisch zum Einsturz gebracht werden.
Damit das ganze aber auch auf flüssig spielbar bleibt, werden die physikalischen Interaktionen
bereits mit speziellen Programmen, die ebenfalls in der Filmindustrie verwendet werden, von
Valve vorberechnet und als Animation gespeichert. Diese Animation wird dann im Spiel abgespielt.
Dynamische Softshadows
Kaum einem anderen Grafikfeature wird derartige Bedeutung zugemessen, wie den dynamischen Schatten.
Die Source-Engine stellt die Licht und Schatten statisch dar, das bringt viele Vorteile mit sich.
So kann beispielsweise die Beleuchtung viel genauer und realistischer berechnet werden, als
in den meisten anderen Spielen. In die Berechnung fliest sogar Licht ein, welches an Wänden
abprallt und somit beispielsweise einen Raum realistisch ausleuchtet. Viel zu aufwendig für
aktuelle Grafikkarten, um das in Echtzeit darzustellen. Damit das möglich ist, wird die
Berechnung simplifiziert und nur das notwendigste wird angezeigt: Licht und Kein-Licht (Schatten).
Natürlich hat auch dieses Verfahren einen großen Vorteil: Es funktioniert in Echtzeit und damit
vollkommen dynamisch. Bewegliche Lichter werfen bewegliche Schatten. Das soll nun auch die
Source-Engine können. Da man trotzdem nicht auf die realistische, aber statische, Grundbeleuchtung
verzichten möchte, führt man die dynamischen Schatten aber nur für die Taschenlampe ein. Jedes
Objekt, egal ob Mensch, Alien oder ein Tisch, welches mit der Taschenlampe angestrahlt wird,
wirft nun einen dynamischen Schatten. Damit diese keine scharfen Kanten haben, nutzt man
Soft-Shadows, also Schatten mit weichem Rand. Die von Valve benutzte Technik dafür nennt sich
"Shadowmaps", diese kommen beispielsweise auch in Crysis zum Einsatz. (Nicht zu verwechseln
mit Stencil Shadows, die z.B. in Doom 3 benutzt wurden.)
Efficient Self-Shadowed Radiosity Normal Mapping
Hinter diesem langen und technischen Begriff verbirgt sich eine verbesserte Bumpmapping-Methode,
die Valve mit Episode Two einführt. Bumpmapping bedeutet, dass 2-Dimensionale Texturen plastischer
aussehen, indem Schatten, je nach Lichteinfall, auf die Textur gezeichnet werden. So bekommt
eine komplett flache Wand mit einer Ziegelmauer-Textur eine gewisse räumliche Tiefe. Diese
Technik wurde nun von Valve verbessert um noch plastischer auszusehen. Und das Beste daran:
Laut Entwickler erhöht dieses verbesserte Verfahren sogar noch die Performance, ist also
für die Grafikkarte einfacher zu berechnen als das in Half-Life 2 genutzte Bumpmapping.
Diese Technik wird vor allem in den Antlion-Höhlen bewundert werden können.
Motion Blur
Bewegungsunschärfe ist momentan ganz groß im Trend, praktisch kein aktuelles Spiel verzichtet darauf.
Und zwar auf einen Effekt, der die Grafik eigentlich verschlechtert, unscharf macht. Doch
genau das möchte man eben erreichen, auch in der Wirklichkeit ist nicht immer alles gestochen
scharf. Diese Technik dient also dazu, die Grafik noch realistischer zu machen. Und so
funktionierts: Motion Blur bzw. Bewegungsunschärfe gehören zu den so genannten Post Processing-Effekten,
dh. nach dem eigentlichen Rendern des Bildes, wird das Frame nochmal bearbeitet. Bei Motion Blur
werden die Positionen von Objekten mit den vorangegangenen Frames verglichen, gab es eine Veränderung
(=Bewegung), werden diese, je nachdem wie stark sie ausfällt, etwas verwischt. Dieser Effekt
ist sehr subtil und fällt normalerweise gar nicht auf, doch man merkt es sofort, wenn man ihn
ausstellt. Motion Blur ist nicht zu verwechseln mit Depth of Field (Tiefenunschärfe).
|