Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

Sporo osób teraz ekscytuje się Raytracingiem i tymi wszystkimi odbiciami, refleksami świetlnymi oraz niemal lustrzanymi taflami na podłodze podczas gdy mniej wymagające efekty graficzne wyglądają już teraz bardzo dobrze ;)

 

Star Wars Battlefront II (na silniku Frostbite 3)

 

FucUM4S.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo na Unreal Engine 4

 

https://www.youtube.com/watch?v=J3ue35ago3Y

 

Quantum Break (na silniku Northlight Engine - tym samym co w poniższym TechDemo)

 

71sN3M1.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo od Remedy Entertainment

 

https://www.youtube.com/watch?v=jkhBlmKtEAk

 

Dema technologiczne były odpalane na czterech kartach graficznych Titan V - pytanie czy efekt końcowy wart zachodu :E?

 

A Wy co o tym myślicie :) ?

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście, że potrzebujemy. Na tym właśnie polega postęp, że nie od razu jest to masowo dostępne i opłacalne. Gry będą wyglądać lepiej, pewnie też usprawni to pracę programistów, no same plusy. Wymagania będą większe? Z każdą nową grą są większe, więc to żaden argument :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdziwego raytracingu i tak w rt nie ma. Wszystko to sztuczki ;)

Czy potrzebne? To chcecie ładnych gier, czy nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Dokładnie, gdzieś koło 2012 była już o tym mowa, znowu wracają, a nie ma mocy obliczeniowej żeby to działało dobrze i wyglądało ładnie, a nie jak tamte filmiki, że wszystko lśni się jak psu jajca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

 

NVIDIA już przerabiała temat Raytracingu przy okazji kart graficznych z serii GTX 400 wychodzi na to że teraz po latach wracają do tematu ;)

 

XtfMPIv.jpg

 

https://www.geforce.com/games-applications/pc-applications/design-garage

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jak mówił @jagular prawdziwego raytracingu w grach nie zobaczysz tylko sztuczki, bo to by zabiło każdą maszynę, ale pójdźmy dalej, @azgan wyobraź sobie technologię nie jak teraz i wcześniej widzi to nvidia każdego promienia światła, a dokładniejszą każdego fotonu światła, o fotonach poczytasz sobie w góglu. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jedno z dem (chyba od Microsoftu) pokazywało jak ray tracing może wpływać na okluzję otoczenia. mnie akurat to przekonuje bo okluzji nigdy dośc. refleksy raczej nie dla mnie

 

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem? grafen xD?

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@

 

Project PICA PICA - Real-time Raytracing Experiment using DXR (DirectX Raytracing)

 

https://www.youtube.com/watch?v=LXo0WdlELJk

 

ale nadal mnie nie przekonuje (fajna sprawa ale jakim kosztem? Serio 4x Titan V :E?)

 

Podczas gdy taki Quantum Break zadowoli się 1 przeciętną kartą podobnie zresztą jak w Star Wars Battlefront II :D

 

lbHNqY6.jpg

 

axaEr18.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie do gier granych na monitorach nie ma to większego sensu (nie zwiększa to w odczuwalny sposób jakości odczuć). Natomiast przy chełmie VR to już będzie miało większe przełożenie i w tym bym upatrywał sensu rozwoju tego.

 

W przypadku gier monitorowych to jedynie kolejny sposób nakręcania gimbazy, że muszą kupić kolejne, mocniejsze GPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

A tu taka ciekawostka, nawet intel kiedyś się tym zajmował. :E Całe 8 lat tamu.

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Przecież Physix istnieje, nazywa się GameWorks i ma masę efektów opartych na tej technologii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co pamiętam raytracing miał się tyczyć nie tylko oświetlenia, ale też np. cieni. Większość z tych demek wygląda co najmniej śmiesznie i dziwię się że postanowili pokazać właśnie to jako przykład raytracingu. Najlepiej wypada to demko Star Wars z UE4.

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

4k wygląda o wiele lepiej niż "raytracing" przedstawiony na większości tych demek.

 

 

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem?

Tak jak pisałem w innym wątku, do poziomu grafiki w grach z tego dema UE4 poczekamy 5-10 lat, z czego bardziej stawiałbym na tą górną granicę. Mogą nawet wprowadzić wydzielone jednostki do raytracingu do całej nowej serii, ale ich możliwości nie będą raczej zbyt duże. Ta technologia, mimo że znana, będzie dopiero raczkować.

 

 

grafen xD?

XD

 

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Też mnie to dziwi, szczególnie że raytracing przedstawiony na tych demkach nie powala. Możliwe, że M$ i Nvidia mają jakiegoś asa w rękawie i dowiemy się czegoś więcej na GTC.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

XD

 

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

 

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Futuremark też zaprezentował demo technologiczne z DirectX Raytracing

 

DirectX Raytracing tech demo - accurate real-time reflections

 

28eCbfs.gif

 

Na moje oko zysk jakości nieadekwatny do wymagań może za 10 lat będzie miało to sens a póki co lepiej spożytkować nadmiar mocy na wyższą rozdzielczość i grać w 4K lub z HDR10 :E

 

Pełna prezentacja do obejrzenia poniżej

 

https://www.youtube.com/watch?v=81E9yVU-KB8

Edytowane przez azgan
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

 

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

A co mają do tego komputery kwantowe? Wiesz jak ciężko się je programuje? Krzem będzie nadal wykorzystywany przez co najmniej 20 lat, choćby wzrost wydajnościowy z serii na serię był marginalny.

 

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Z tego co widziałem na screenach z innego wątku to w tym demie specjalnie zrobili jak najgorsze odbicia (te bez raytracingu). Trochę żenująca jest taka promocja na siłę, chociaż sam raytracing jest świetną technologią i zapewni nam później "filmowość" w grach do której tak bardzo dążą deweloperzy gier AAA. szczerbaty.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

 

Wszystko sie swieci bo to techdemo.

 

IMO bedzie jak z physx, firmwy partnerskie zaimplementuja, Ci ktorzy to zrobia dobrze to bedzie dzialac wzglednie partacze spieprza optymalizacje i tyle.

 

Sledzenie fotonu jak najbardziej ale czym to bliczac?:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kopacze na 5 Tytanach sobie pograją :lol2:

zeby to 5 tytanow wystarczylo :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oświetlenie w Metro zawsze robiło robotę przez co gra wygląda bardzo dobrze nawet dzisiaj ale fakt światło oraz obiekty nie odbijały się tam w posadce jak w "lustrzanym" odbiciu

 

d3VLAbK.jpg

 

Pytanie tylko czy faktycznie do uzyskania takiego efektu potrzebny jest RTX ;)

 

Podejrzewam że to będzie właśnie ta (jedyna) opcja ubijająca najwydajniejsze karty graficzne którą i tak większość wył. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spokojnie, na pewno tylko część gry będzie korzystała z RTX, cienie, AO czy odbicia. Zje pewnie z 20-30% mocy topowych GPU, ale przynajmniej coś się dzieje :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Swego czasu PowerVR chwalił się, że ich wyspecjalizowana jednostka do raytracingu zapewnia wydajność na poziomie GTX680 przy poborze mocy rzędu 2W. Fakty pewnie marketingowo podkręcone, ale generalnie tu bym upatrywał przyszłości (wyspecjalizowany sprzęt, a nie wykorzystanie SPU).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne aktualnie

  • Tematy

  • Odpowiedzi

    • W tych wypadkach proponuję sprawdzić dokładnie umowę. Bo może być tak, że w ofercie jest INTERNET NIELIMITOWANY*   * Przez pierwsze 1000 GB a potem prędkość spada do 10 Mbps Wiem, że w przeszłości kilku operatorom się właśnie za takie zapisy oberwało ale nie wiem, czy coś zmienili. Dodatkowo w zależności od obciążenia nadajnika może się okazać, że takie rzeczy nie będą możliwe bo on też ma ograniczona przepustowość i wieczorem po prostu streamować się nie będzie dało.
    • No ze nie wymiatam, czesto na bossach muszę z yt przechodzic bo sam nie daje rady, gralem w demon souls, bloodbirne i niohy
    • Dane pomiarowe dobowe od 1951 roku https://danepubliczne.imgw.pl/data/dane_pomiarowo_obserwacyjne/dane_meteorologiczne/dobowe/klimat/ No ale tak, przecież gówno wiemy i nikt nie bada trendów.  Dane pomiarowe w wielu miejscach świata sięgają znacznie dalej. Wiele zjawisk można modelować na podstawie różnych danych, wykorzystuje się do tego fizykę, matematykę, biologię, geologię, chemię i wiele innych dziedzin. Maksymalna temperatura w marcu 2022 Column1 Stacja rok miesiąc dzień maksymalna temperatura dobowa minimalna temperatura dobowa 250190390 KRAKÓW-OBSERWATORIUM 2022 3 23 22,5 -1,5 249200260 ŁĄCKO 2022 3 25 22,4 -2 249200920 PIWNICZNA 2022 3 23 21,8 -3,5 2021 Column1 Stacja rok miesiąc dzień maksymalna temperatura dobowa minimalna temperatura dobowa 251150060 CEBER 2021 3 31 23,4 3,2 251160320 RADZYŃ 2021 3 31 23,3 4,1 250190390 KRAKÓW-OBSERWATORIUM 2021 3 31 23,1 5,4 No ale tak, nie powtarza się co roku   A teraz jeszcze @T0TEK co do +20 i przymrozków w nocy w kwietniu. Wyżej masz przykład w marcu, ale mowa o kwietniu. Tak, zgodzę się że teraz takie ekstrema występują i to regularnie od jakiegoś czasu. Tylko mowa o zmianach klimatu, więc o trendach na przestrzeni lat, a nie o pogodzie. Kwiecień 1985  Column1 Stacja rok miesiąc dzień maksymalna temperatura dobowa minimalna temperatura dobowa 252159997 TRZEBIECHÓW 1985 4 5 25,3 5,3 251159996 SZPROTAWA 1985 4 5 24,7 7,8 252150120 GORZYŃ 1985 4 5 24,7 6,3 251150080 GRABIK 1985 4 5 24,6 6,8 252159999 SULĘCIN 1985 4 5 24,3 7,9 252160160 PAPROĆ 1985 4 5 24,3 6,2 253140060 GOLENIÓW 1985 4 5 24,3 7,2 251150060 CEBER 1985 4 5 24,2 6,1 253150190 PRZELEWICE 1985 4 5 24,1 6,8 250160090 PSZENNO 1985 4 5 24 10,9 251170090 SMOLICE 1985 4 5 24 6,5 252150050 KRZYŻ 1985 4 5 24 3,5 252160230 WIELICHOWO 1985 4 5 24 4,8 251150250 ZGORZELEC 1985 4 5 23,9 8,8 252150180 LUBINICKO-ŚWIEBODZIN 1985 4 5 23,8 7,4 249190190 MAKÓW PODHALAŃSKI 1985 4 5 23,6 0,9 250170140 GRODKÓW 1985 4 5 23,6 4,6 250170110 DOBROGOSZCZ 1985 4 5 23,4 10,7 250190390 KRAKÓW-OBSERWATORIUM 1985 4 5 23,4 4,8 251170030 WITASZYCE 1985 4 5 23,4 7,5 250170250 OTMUCHÓW 1985 4 5 23,2 5 250170320 PRUDNIK 1985 4 5 23,2 4 252159997 TRZEBIECHÓW 1985 4 4 23,2 5,3 252170210 KÓRNIK 1985 4 5 23,1 6,7 250200230 BORUSOWA 1985 4 23 23 3,5 253160090 WIERZCHOWO 1985 4 5 23 6,4 Szukaj przymrozków. Kwiecień 1984 Column1 Stacja rok miesiąc dzień maksymalna temperatura dobowa minimalna temperatura dobowa 252159997 TRZEBIECHÓW 1984 4 15 23,4 2,2 250190390 KRAKÓW-OBSERWATORIUM 1984 4 16 23,2 6 250200310 WIELICZKA 1984 4 16 23,2 6,7 250200220 SIELEC 1984 4 16 22,7 1,1 251210120 PUŁAWY 1984 4 16 22,7 7,6 249209999 BOCHNIA 1984 4 16 22,6 1,9 250170110 DOBROGOSZCZ 1984 4 16 22,6 8,1 250200230 BORUSOWA 1984 4 16 22,6 2,2 251150060 CEBER 1984 4 15 22,6 2,4 252219993 ŚWIDER 1984 4 16 22,6 7,6 251180090 SIERADZ 1984 4 16 22,5 6,2 252150120 GORZYŃ 1984 4 15 22,5 6,3 252210160 WARSZAWA-OBSERWATORIUM 1984 4 16 22,5 7,3 254180170 LISEWO 1984 4 16 22,5 4,2 250190250 ZĄBKOWICE 1984 4 16 22,4 8,6 252189999 CIECHOCINEK 1984 4 16 22,4 9,5 252200060 POŚWIĘTNE 1984 4 16 22,4 8 250190030 SILNICZKA 1984 4 16 22,3 2,2 251219997 OPOLE LUBELSKIE 1984 4 16 22,3 8 252160160 PAPROĆ 1984 4 15 22,3 4,2 252199995 TOPOLA-BŁONIE 1984 4 16 22,3 8,3 252200120 LEGIONOWO 1984 4 16 22,3 7,1 252239995 BIAŁA PODLASKA 1984 4 16 22,3 6,4 250190390 KRAKÓW-OBSERWATORIUM 1984 4 15 22,2 3,3 251220070 SOBIESZYN 1984 4 16 22,2 5 251229996 FELIN 1984 4 16 22,2 7,1 252200150 WARSZAWA-BIELANY 1984 4 16 22,2 8,5 252209995 BRWINÓW 1984 4 16 22,2 7,4 253180020 RADOSTOWO 1984 4 16 22,2 4,6 253210210 MYSZYNIEC 1984 4 16 22,2 6,6 Też próżno szukać przymrozków gdzie maksymalna dobowa temperatura wynosiła ponad 20 stopni. Tak można lecieć miesiącami i latami według danych z linka, który dałem. Trend jest wyraźny, więc @Melodyman nie wiem kto za późno się urodził żeby tego nie widzieć. 
    • Wg mnie Polska nie jest biednym krajem.
    • Ja całe życie korzystałem z kart od Zielonych i 2 lata temu przy dość wysokich cenach (pandemia) postanowiłem sprawdzić coś z AMD. Kupiłem RX 6600 (Powercolor). Wykonanie super, do tego podświetlenie i fajne parametry. Jakież było moje zdziwienie gdy po wyczyszczeniu starych sterowników i instalacji nowych od Czerwonych zaczęły dziać się cuda. Komputer odpalał raz na 5-6 razy, w pozostałych ekran gasł zamiast odpalić system. Próbowałem kombinować na różne sposoby przez kilka dni i nic nie dało się zrobić. Zwróciłem kartę, kupiłem 3050 i od razu wszystko zaskoczyło. Niestety problemy ze sterownikami to nie jest przypadek. Ta firma od lat ma z tym problemy. Ja również więcej produktów od nich nie kupię.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...