Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

Sporo osób teraz ekscytuje się Raytracingiem i tymi wszystkimi odbiciami, refleksami świetlnymi oraz niemal lustrzanymi taflami na podłodze podczas gdy mniej wymagające efekty graficzne wyglądają już teraz bardzo dobrze ;)

 

Star Wars Battlefront II (na silniku Frostbite 3)

 

FucUM4S.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo na Unreal Engine 4

 

https://www.youtube.com/watch?v=J3ue35ago3Y

 

Quantum Break (na silniku Northlight Engine - tym samym co w poniższym TechDemo)

 

71sN3M1.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo od Remedy Entertainment

 

https://www.youtube.com/watch?v=jkhBlmKtEAk

 

Dema technologiczne były odpalane na czterech kartach graficznych Titan V - pytanie czy efekt końcowy wart zachodu :E?

 

A Wy co o tym myślicie :) ?

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście, że potrzebujemy. Na tym właśnie polega postęp, że nie od razu jest to masowo dostępne i opłacalne. Gry będą wyglądać lepiej, pewnie też usprawni to pracę programistów, no same plusy. Wymagania będą większe? Z każdą nową grą są większe, więc to żaden argument :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdziwego raytracingu i tak w rt nie ma. Wszystko to sztuczki ;)

Czy potrzebne? To chcecie ładnych gier, czy nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Dokładnie, gdzieś koło 2012 była już o tym mowa, znowu wracają, a nie ma mocy obliczeniowej żeby to działało dobrze i wyglądało ładnie, a nie jak tamte filmiki, że wszystko lśni się jak psu jajca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

 

NVIDIA już przerabiała temat Raytracingu przy okazji kart graficznych z serii GTX 400 wychodzi na to że teraz po latach wracają do tematu ;)

 

XtfMPIv.jpg

 

https://www.geforce.com/games-applications/pc-applications/design-garage

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jak mówił @jagular prawdziwego raytracingu w grach nie zobaczysz tylko sztuczki, bo to by zabiło każdą maszynę, ale pójdźmy dalej, @azgan wyobraź sobie technologię nie jak teraz i wcześniej widzi to nvidia każdego promienia światła, a dokładniejszą każdego fotonu światła, o fotonach poczytasz sobie w góglu. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jedno z dem (chyba od Microsoftu) pokazywało jak ray tracing może wpływać na okluzję otoczenia. mnie akurat to przekonuje bo okluzji nigdy dośc. refleksy raczej nie dla mnie

 

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem? grafen xD?

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@

 

Project PICA PICA - Real-time Raytracing Experiment using DXR (DirectX Raytracing)

 

https://www.youtube.com/watch?v=LXo0WdlELJk

 

ale nadal mnie nie przekonuje (fajna sprawa ale jakim kosztem? Serio 4x Titan V :E?)

 

Podczas gdy taki Quantum Break zadowoli się 1 przeciętną kartą podobnie zresztą jak w Star Wars Battlefront II :D

 

lbHNqY6.jpg

 

axaEr18.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie do gier granych na monitorach nie ma to większego sensu (nie zwiększa to w odczuwalny sposób jakości odczuć). Natomiast przy chełmie VR to już będzie miało większe przełożenie i w tym bym upatrywał sensu rozwoju tego.

 

W przypadku gier monitorowych to jedynie kolejny sposób nakręcania gimbazy, że muszą kupić kolejne, mocniejsze GPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

A tu taka ciekawostka, nawet intel kiedyś się tym zajmował. :E Całe 8 lat tamu.

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Przecież Physix istnieje, nazywa się GameWorks i ma masę efektów opartych na tej technologii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co pamiętam raytracing miał się tyczyć nie tylko oświetlenia, ale też np. cieni. Większość z tych demek wygląda co najmniej śmiesznie i dziwię się że postanowili pokazać właśnie to jako przykład raytracingu. Najlepiej wypada to demko Star Wars z UE4.

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

4k wygląda o wiele lepiej niż "raytracing" przedstawiony na większości tych demek.

 

 

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem?

Tak jak pisałem w innym wątku, do poziomu grafiki w grach z tego dema UE4 poczekamy 5-10 lat, z czego bardziej stawiałbym na tą górną granicę. Mogą nawet wprowadzić wydzielone jednostki do raytracingu do całej nowej serii, ale ich możliwości nie będą raczej zbyt duże. Ta technologia, mimo że znana, będzie dopiero raczkować.

 

 

grafen xD?

XD

 

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Też mnie to dziwi, szczególnie że raytracing przedstawiony na tych demkach nie powala. Możliwe, że M$ i Nvidia mają jakiegoś asa w rękawie i dowiemy się czegoś więcej na GTC.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

XD

 

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

 

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Futuremark też zaprezentował demo technologiczne z DirectX Raytracing

 

DirectX Raytracing tech demo - accurate real-time reflections

 

28eCbfs.gif

 

Na moje oko zysk jakości nieadekwatny do wymagań może za 10 lat będzie miało to sens a póki co lepiej spożytkować nadmiar mocy na wyższą rozdzielczość i grać w 4K lub z HDR10 :E

 

Pełna prezentacja do obejrzenia poniżej

 

https://www.youtube.com/watch?v=81E9yVU-KB8

Edytowane przez azgan
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

 

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

A co mają do tego komputery kwantowe? Wiesz jak ciężko się je programuje? Krzem będzie nadal wykorzystywany przez co najmniej 20 lat, choćby wzrost wydajnościowy z serii na serię był marginalny.

 

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Z tego co widziałem na screenach z innego wątku to w tym demie specjalnie zrobili jak najgorsze odbicia (te bez raytracingu). Trochę żenująca jest taka promocja na siłę, chociaż sam raytracing jest świetną technologią i zapewni nam później "filmowość" w grach do której tak bardzo dążą deweloperzy gier AAA. szczerbaty.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

 

Wszystko sie swieci bo to techdemo.

 

IMO bedzie jak z physx, firmwy partnerskie zaimplementuja, Ci ktorzy to zrobia dobrze to bedzie dzialac wzglednie partacze spieprza optymalizacje i tyle.

 

Sledzenie fotonu jak najbardziej ale czym to bliczac?:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kopacze na 5 Tytanach sobie pograją :lol2:

zeby to 5 tytanow wystarczylo :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oświetlenie w Metro zawsze robiło robotę przez co gra wygląda bardzo dobrze nawet dzisiaj ale fakt światło oraz obiekty nie odbijały się tam w posadce jak w "lustrzanym" odbiciu

 

d3VLAbK.jpg

 

Pytanie tylko czy faktycznie do uzyskania takiego efektu potrzebny jest RTX ;)

 

Podejrzewam że to będzie właśnie ta (jedyna) opcja ubijająca najwydajniejsze karty graficzne którą i tak większość wył. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spokojnie, na pewno tylko część gry będzie korzystała z RTX, cienie, AO czy odbicia. Zje pewnie z 20-30% mocy topowych GPU, ale przynajmniej coś się dzieje :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Swego czasu PowerVR chwalił się, że ich wyspecjalizowana jednostka do raytracingu zapewnia wydajność na poziomie GTX680 przy poborze mocy rzędu 2W. Fakty pewnie marketingowo podkręcone, ale generalnie tu bym upatrywał przyszłości (wyspecjalizowany sprzęt, a nie wykorzystanie SPU).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Jako palacz jestem za. 
    • niestety ale produkty marki Herman Miller w Polsce są obarczone jakimś dziwnym januszowym skokiem ceny względem całego świata. Aeron za 5800 zł dziś kosztuje 9000 bez zniżek, rabatów, promocji - Embody to wydatek w okolicach 6800-7500 zł w zależności od sklepu i przeceny (bez przecen to koszt ok 9000 zł...) no krótko mówiąc dramat.
    • Wczoraj znalazłem czas na włączenie i porównanie obu monitorów (DW vs C3). Testowałem w Horizon Forbidden West i Alan Wake 2 w HDR, takich samych ustawieniach graficznych i natywnej rozdzielczości każdego panelu. Stwierdzam, że C3 jest jednak zauważalnie jaśniejszy i 4k robi różnicę jeśli chodzi o ostrość obrazu, tuszowanie mankamentów (w 3440x1440 przy obracaniu kamerą dookoła Aloy jest delikatne jakby smużenie/blur, którego w 4k nie widać-przy wyłączonym FG, blurze, aberacji i tym podobnych i przy włączonym DLSS Q). Wielkość ekranu, 4k i 250 więcej nitów w oknie 10% wg mnie przyczyniają się do jaśniejszego obrazu i sprawiającego lepsze wrażenie HDR. Potwierdzam to co pisał wcześniej na ten temat @MSky7  Ponadto po 3 dniach i około 18h pracy panelu banding zdecydowanie zmalał i na tyle, że na razie nie ma sensu robić pixel refresha (odpowiednik panel refresha w DW). Nie widać go w grach i filmach - jest tylko czasami widoczny na szarych/near black tłach, ale liczę, że po tych 100-200h (tyle oledy potrzebują na ostateczne 'dostrojenie się') będzie dalsza poprawa. W środkowej części ekranu mam pink tint, ale niewidoczny w grach i filmach na ciemnych/szarych tłach i tylko nieco widoczny na białych tłach stron internetowych. Będę monitorował - avs forum mówi, że tint po pierwszym pixel refreshu powinnien nieco zmaleć. Banding i tint występują w każdym woledzie (chyba, że ktoś trafi na idealny panel, ale to jak wygrać los na loterii), ale na szczęście często z czasem maleją lub znikają - najważniejsze, żeby nie było ich widać w grach i filmach. W swoim 5 letnim C8 też przy okazji zrobiłem pixel refresh i zniwelowałem w dużym stopniu banding, który w tym TV miałem dość widoczny w grach i filmach te 3 lata temu. Przy okazji ponadto porobiłem testy (slajdy) DW i panel jest praktycznie całkowicie czysty jeśli chodzi o banding i tint (pierwsza generacja paneli qd oled szczególnie miała bardzo dobre panele pod tym względem, a sam qd oled mówi się jest lepszy pod względem bandingu czy tintu). Biorąc pod uwagę powyższe, na 95% C3 zostaje ze mną, a DW (wciąż na gwarancji Dell Polska do sierpnia 2025) idzie na sprzedaż. Po weekendzie podejmę ostateczną decyzję, ale na obecną chwilę jestem bardzo zadowolony z C3. Zastanawiam się tylko za ile wystawić takiej jakości DW. PS. Uwielbiam 21:9, ale grając przez ostatnie 3 dni w 16:9 na tak dużym ekranie z bliska, człowiek docenia ile ma ekranu na wysokość 😀
    • Też się trochę przeraziłem wymaganiami. Ale to EA w sumie.
    • Tez mi sie tak wydaje jesli chodzi o ten RTX HDR, szczegolnie, ze potrafi ubic pare% z wydajnosci. Patrze na ten reshade i troche nie wierze w to ile sie zmienilo od czasow W3 kiedy ostatni raz go uzywalem  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...