Quixels Rebirth-Kurzfilm: Brillanter Fotorealismus mit Unreal Engine und Megascans

Auf der GDC 2019 Game Developers Conference präsentierte das Quixel-Team, das für seine Expertise auf dem Gebiet der Photogrammetrie bekannt ist, im Rahmen der State of Unreal-Präsentation seinen Kurzfilm Rebirth, in dem es ein hervorragendes Maß an Fotorealismus auf der Unreal Engine 4.21 demonstrierte. Es ist erwähnenswert, dass die Demo von nur drei Künstlern erstellt wurde und eine Bibliothek von Megascans 2D- und 3D-Assets verwendet, die aus physischen Objekten erstellt wurden.

Um sich auf das Projekt vorzubereiten, scannte Quixel einen Monat lang Gemeinden in Island bei Eisregen und Gewittern und kehrte mit mehr als tausend Scans zurück. Sie erfassten eine Vielzahl von Regionen und natürlichen Umgebungen, die dann für die Erstellung des Kurzfilms verwendet wurden.

Quixels Rebirth-Kurzfilm: Brillanter Fotorealismus mit Unreal Engine und Megascans

Das Ergebnis war eine weniger als zwei Minuten lange, filmische Echtzeit-Demo von Rebirth, die in einer futuristischen außerirdischen Umgebung spielt. Die Megascans-Bibliothek stellte standardisierte Materialien bereit, was die Produktion vereinfachte, da die Notwendigkeit entfiel, Assets von Grund auf neu zu erstellen. Und die hohe Genauigkeit des Scans, basierend auf physikalischen Daten, ermöglichte es, fotorealistische Ergebnisse zu erzielen.


Quixels Rebirth-Kurzfilm: Brillanter Fotorealismus mit Unreal Engine und Megascans

Quixel umfasst Künstler aus der Gaming-Branche, Spezialisten für visuelle Effekte und Spezialisten für Architektur-Rendering. Das Team hatte die Aufgabe zu beweisen, dass die Unreal Engine es mehreren Branchen ermöglicht, zusammenzukommen und eine Echtzeit-Pipeline zu nutzen. Um das Projekt zum Leben zu erwecken, waren Partner wie Beauty & the Bit, SideFX und Ember Lab an der Arbeit beteiligt.

Quixels Rebirth-Kurzfilm: Brillanter Fotorealismus mit Unreal Engine und Megascans

Mit der Unreal Engine 4.21 als Herzstück der Pipeline konnten Quixel-Künstler die Szene in Echtzeit ändern, ohne dass ein Vor-Rendering oder eine Nachbearbeitung erforderlich war. Das Team entwickelte außerdem eine physische Kamera, die Bewegungen erfassen konnte und so den Eindruck von Realismus in der virtuellen Realität verstärkte. Die gesamte Nachbearbeitung und Farbkorrektur erfolgte direkt in Unreal.




Source: 3dnews.ru

Kommentar hinzufügen