Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

Sporo osób teraz ekscytuje się Raytracingiem i tymi wszystkimi odbiciami, refleksami świetlnymi oraz niemal lustrzanymi taflami na podłodze podczas gdy mniej wymagające efekty graficzne wyglądają już teraz bardzo dobrze ;)

 

Star Wars Battlefront II (na silniku Frostbite 3)

 

FucUM4S.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo na Unreal Engine 4

 

https://www.youtube.com/watch?v=J3ue35ago3Y

 

Quantum Break (na silniku Northlight Engine - tym samym co w poniższym TechDemo)

 

71sN3M1.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo od Remedy Entertainment

 

https://www.youtube.com/watch?v=jkhBlmKtEAk

 

Dema technologiczne były odpalane na czterech kartach graficznych Titan V - pytanie czy efekt końcowy wart zachodu :E?

 

A Wy co o tym myślicie :) ?

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście, że potrzebujemy. Na tym właśnie polega postęp, że nie od razu jest to masowo dostępne i opłacalne. Gry będą wyglądać lepiej, pewnie też usprawni to pracę programistów, no same plusy. Wymagania będą większe? Z każdą nową grą są większe, więc to żaden argument :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Efekt nieadekwatny do wymagań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdziwego raytracingu i tak w rt nie ma. Wszystko to sztuczki ;)

Czy potrzebne? To chcecie ładnych gier, czy nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Dokładnie, gdzieś koło 2012 była już o tym mowa, znowu wracają, a nie ma mocy obliczeniowej żeby to działało dobrze i wyglądało ładnie, a nie jak tamte filmiki, że wszystko lśni się jak psu jajca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

 

NVIDIA już przerabiała temat Raytracingu przy okazji kart graficznych z serii GTX 400 wychodzi na to że teraz po latach wracają do tematu ;)

 

XtfMPIv.jpg

 

https://www.geforce.com/games-applications/pc-applications/design-garage

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jak mówił @jagular prawdziwego raytracingu w grach nie zobaczysz tylko sztuczki, bo to by zabiło każdą maszynę, ale pójdźmy dalej, @azgan wyobraź sobie technologię nie jak teraz i wcześniej widzi to nvidia każdego promienia światła, a dokładniejszą każdego fotonu światła, o fotonach poczytasz sobie w góglu. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jedno z dem (chyba od Microsoftu) pokazywało jak ray tracing może wpływać na okluzję otoczenia. mnie akurat to przekonuje bo okluzji nigdy dośc. refleksy raczej nie dla mnie

 

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem? grafen xD?

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@

 

Project PICA PICA - Real-time Raytracing Experiment using DXR (DirectX Raytracing)

 

https://www.youtube.com/watch?v=LXo0WdlELJk

 

ale nadal mnie nie przekonuje (fajna sprawa ale jakim kosztem? Serio 4x Titan V :E?)

 

Podczas gdy taki Quantum Break zadowoli się 1 przeciętną kartą podobnie zresztą jak w Star Wars Battlefront II :D

 

lbHNqY6.jpg

 

axaEr18.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie do gier granych na monitorach nie ma to większego sensu (nie zwiększa to w odczuwalny sposób jakości odczuć). Natomiast przy chełmie VR to już będzie miało większe przełożenie i w tym bym upatrywał sensu rozwoju tego.

 

W przypadku gier monitorowych to jedynie kolejny sposób nakręcania gimbazy, że muszą kupić kolejne, mocniejsze GPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

A tu taka ciekawostka, nawet intel kiedyś się tym zajmował. :E Całe 8 lat tamu.

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Przecież Physix istnieje, nazywa się GameWorks i ma masę efektów opartych na tej technologii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co pamiętam raytracing miał się tyczyć nie tylko oświetlenia, ale też np. cieni. Większość z tych demek wygląda co najmniej śmiesznie i dziwię się że postanowili pokazać właśnie to jako przykład raytracingu. Najlepiej wypada to demko Star Wars z UE4.

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

4k wygląda o wiele lepiej niż "raytracing" przedstawiony na większości tych demek.

 

 

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem?

Tak jak pisałem w innym wątku, do poziomu grafiki w grach z tego dema UE4 poczekamy 5-10 lat, z czego bardziej stawiałbym na tą górną granicę. Mogą nawet wprowadzić wydzielone jednostki do raytracingu do całej nowej serii, ale ich możliwości nie będą raczej zbyt duże. Ta technologia, mimo że znana, będzie dopiero raczkować.

 

 

grafen xD?

XD

 

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Też mnie to dziwi, szczególnie że raytracing przedstawiony na tych demkach nie powala. Możliwe, że M$ i Nvidia mają jakiegoś asa w rękawie i dowiemy się czegoś więcej na GTC.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

XD

 

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

 

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Futuremark też zaprezentował demo technologiczne z DirectX Raytracing

 

DirectX Raytracing tech demo - accurate real-time reflections

 

28eCbfs.gif

 

Na moje oko zysk jakości nieadekwatny do wymagań może za 10 lat będzie miało to sens a póki co lepiej spożytkować nadmiar mocy na wyższą rozdzielczość i grać w 4K lub z HDR10 :E

 

Pełna prezentacja do obejrzenia poniżej

 

https://www.youtube.com/watch?v=81E9yVU-KB8

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

 

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

A co mają do tego komputery kwantowe? Wiesz jak ciężko się je programuje? Krzem będzie nadal wykorzystywany przez co najmniej 20 lat, choćby wzrost wydajnościowy z serii na serię był marginalny.

 

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Z tego co widziałem na screenach z innego wątku to w tym demie specjalnie zrobili jak najgorsze odbicia (te bez raytracingu). Trochę żenująca jest taka promocja na siłę, chociaż sam raytracing jest świetną technologią i zapewni nam później "filmowość" w grach do której tak bardzo dążą deweloperzy gier AAA. szczerbaty.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

 

Wszystko sie swieci bo to techdemo.

 

IMO bedzie jak z physx, firmwy partnerskie zaimplementuja, Ci ktorzy to zrobia dobrze to bedzie dzialac wzglednie partacze spieprza optymalizacje i tyle.

 

Sledzenie fotonu jak najbardziej ale czym to bliczac?:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kopacze na 5 Tytanach sobie pograją :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kopacze na 5 Tytanach sobie pograją :lol2:

zeby to 5 tytanow wystarczylo :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oświetlenie w Metro zawsze robiło robotę przez co gra wygląda bardzo dobrze nawet dzisiaj ale fakt światło oraz obiekty nie odbijały się tam w posadce jak w "lustrzanym" odbiciu

 

d3VLAbK.jpg

 

Pytanie tylko czy faktycznie do uzyskania takiego efektu potrzebny jest RTX ;)

 

Podejrzewam że to będzie właśnie ta (jedyna) opcja ubijająca najwydajniejsze karty graficzne którą i tak większość wył. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...