Niedawno demo od Epic, twórców silnika gry Unreal, uniosło brwi za swoje fotorealistyczne efekty świetlne. Technika ta jest dużym krokiem naprzód w przypadku ray tracingu. Ale co to znaczy?
Co robi Ray Tracing
Mówiąc prościej, ray tracing to metoda wykorzystywana przez silnik graficzny do obliczania wpływu wirtualnych źródeł światła na elementy w ich środowisku. Program dosłownie ślady the promienie światła, używając obliczeń opracowanych przez fizyków, którzy badają sposób, w jaki zachowuje się prawdziwe światło.
Silniki graficzne, takie jak Unreal czy Unity, wykorzystują śledzenie promieni do renderowania realistycznych efektów świetlnych - cieni, odbić i okluzji - bez konieczności renderowania ich jako osobnych obiektów. Chociaż jest to dość intensywne z punktu widzenia przetwarzania, użycie go do renderowania tylko tego, co kamera (tj. Gracz) musi zobaczyć w danym momencie, oznacza, że może być bardziej wydajne niż inne, starsze metody symulowania realistycznego światła w środowiskach wirtualnych. Specyficzne efekty świetlne są renderowane na pojedynczej dwuwymiarowej płaszczyźnie z perspektywy widza, a nie stale w całym środowisku.
Wszystko to osiąga się za pomocą niesamowicie złożonej matematyki, zarówno pod względem faktycznego określenia sposobu zachowania wirtualnego światła, jak i tego, ile z tych efektów jest widocznych dla widza lub gracza w danym momencie. Programiści mogą korzystać z mniej złożonych wersji tych samych technik, aby uwzględnić słabszy sprzęt lub bardziej szybką i płynną rozgrywkę.
Śledzenie promieni to ogólne podejście do grafiki, a nie jakaś konkretna technika, chociaż jest stale udoskonalane i ulepszane. Może być używany we wstępnie renderowanej grafice, takiej jak efekty specjalne widoczne w filmach z Hollywood, lub w silnikach czasu rzeczywistego, takich jak grafika, którą widzisz w środku rozgrywki podczas gry na PC.
Co nowego w ray tracingu?
Demo, które niedawno pojawiło się w wiadomościach, to to, co widać na poniższym filmie, krótkie Gwiezdne Wojny szkic z udziałem kilku szturmowców z naprawdę złym wyczuciem czasu. Zostało to pokazane na konferencji Game Developer w zeszłym tygodniu. Został stworzony przez Epic Games (twórców wszechobecnego silnika Unreal Engine) we współpracy z firmami NVIDIA i Microsoft w celu zaprezentowania nowych technik śledzenia promieni.
Poza kontekstem to tylko głupi film. Ale najważniejsze jest to, że jest renderowany w czasie rzeczywistym, jak gra wideo, a nie wcześniej jak film Pixara. Poniższy film pokazuje, jak prezenter powiększa kamerę po scenie za pomocą elementów sterujących w czasie rzeczywistym, co nie jest możliwe w przypadku wstępnie renderowanej grafiki.
Teoretycznie, jeśli twój komputer do gier jest wystarczająco mocny, może generować taką grafikę w dowolnej grze, korzystając z nowych efektów świetlnych opartych na ray tracingu w nadchodzącej wersji demo Unreal.
Technologia naprawdę błyszczy (rozumiesz?), Ponieważ to konkretne demo zawiera wiele odblaskowych i lustrzanych powierzchni o nieregularnej geometrii. Sprawdź, jak otoczenie odbija się w zakrzywionych panelach chromowanej zbroi kapitana Phasmy. Co równie ważne, zwróć uwagę, jak tępo i bardziej odbija się od białej zbroi zwykłych szturmowców. To poziom realistycznego oświetlenia, który nie jest obecnie dostępny w grach.
Czy dzięki temu moje gry będą wyglądać niesamowicie?
Cóż, tak - w bardzo szczególnych okolicznościach. Ten zaawansowany poziom śledzenia promieni ułatwi grom wideo renderowanie bardziej imponujących efektów świetlnych, ale w rzeczywistości nie sprawia, że wielokątna struktura grafiki jest bardziej szczegółowa. Nie zwiększa rozdzielczości tekstur ani nie poprawia płynności animacji. Krótko mówiąc, sprawi, że oświetlenie będzie wyglądać realistycznie i to wszystko.
Powyższe demo jest szczególnie dramatyczne, ponieważ twórcy wybrali postacie i środowiska, w których prawie każda powierzchnia świeci lub odbija światło. Jeśli użyjesz tej samej technologii do renderowania, powiedzmy, bohatera Wiedźmin jeżdżąc na koniu po okolicy, nie zobaczysz żadnych silnie odblaskowych powierzchni, z wyjątkiem jego miecza i być może trochę wody. Co najważniejsze, techniki ray tracingu nie poprawią odwzorowania jego skóry, futra konia, skóry jego ubrań i tak dalej.
Nagłówki, które pojawiły się podczas tej demonstracji, w której twierdzono, że zaowocuje to „grafiką kinową przebojów”, były trochę przesadzone - może to być prawda, jeśli grasz na poziomie ustawionym w sali luster, ale to wszystko.
Kiedy zobaczę te rzeczy w moich grach?
Demonstracja GDC była przykładem zastrzeżonej techniki śledzenia promieni o nazwie RTX, obecnie opracowywanej przez firmę NVIDIA. Zadebiutuje w następnej serii zaawansowanych kart graficznych GeForce, o których podobno zadebiutuje jeszcze w tym roku z numerami modeli 20XX. Podobnie jak inne zastrzeżone technologie graficzne, takie jak NVIDIA PhysX, prawdopodobnie nie będzie ona dostępna dla graczy korzystających z kart graficznych innych producentów.
Biorąc to pod uwagę, RTX korzysta również z nowej funkcji DirectX API system specjalnie do śledzenia promieni (nazywany przez firmę Microsoft śledzeniem promieni). Tak więc, chociaż powyższe prezentacje są wynikiem współpracy między Epic i NVIDIA, nic nie stoi na przeszkodzie, aby konkurujący producenci, tacy jak AMD i Intel, tworzyli podobne systemy z podobnymi wynikami.
Mówiąc prościej, zobaczysz, że wysokiej klasy gry na PC zaczną wykorzystywać te techniki pod koniec 2018 i na początku 2019 roku. Gracze, którzy zainwestują w nowe karty graficzne mniej więcej w tym czasie, zobaczą największe korzyści, ale jeśli już je posiadasz wysokiej klasy system do gier, niektóre z tych efektów mogą być używane w grach zgodnych z DirectX na obecnym sprzęcie.
Ze względu na długi czas rozwoju i statyczne cele sprzętowe gracze konsolowi nie zobaczą tej zaawansowanej grafiki, dopóki następna runda konsol do gier nie zostanie wydana za kilka lat.
Kredyt obrazu: NVIDIA , Epic / YouTube , Guru3D / YouTube