Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

Sporo osób teraz ekscytuje się Raytracingiem i tymi wszystkimi odbiciami, refleksami świetlnymi oraz niemal lustrzanymi taflami na podłodze podczas gdy mniej wymagające efekty graficzne wyglądają już teraz bardzo dobrze ;)

 

Star Wars Battlefront II (na silniku Frostbite 3)

 

FucUM4S.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo na Unreal Engine 4

 

https://www.youtube.com/watch?v=J3ue35ago3Y

 

Quantum Break (na silniku Northlight Engine - tym samym co w poniższym TechDemo)

 

71sN3M1.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo od Remedy Entertainment

 

https://www.youtube.com/watch?v=jkhBlmKtEAk

 

Dema technologiczne były odpalane na czterech kartach graficznych Titan V - pytanie czy efekt końcowy wart zachodu :E?

 

A Wy co o tym myślicie :) ?

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście, że potrzebujemy. Na tym właśnie polega postęp, że nie od razu jest to masowo dostępne i opłacalne. Gry będą wyglądać lepiej, pewnie też usprawni to pracę programistów, no same plusy. Wymagania będą większe? Z każdą nową grą są większe, więc to żaden argument :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdziwego raytracingu i tak w rt nie ma. Wszystko to sztuczki ;)

Czy potrzebne? To chcecie ładnych gier, czy nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Dokładnie, gdzieś koło 2012 była już o tym mowa, znowu wracają, a nie ma mocy obliczeniowej żeby to działało dobrze i wyglądało ładnie, a nie jak tamte filmiki, że wszystko lśni się jak psu jajca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

 

NVIDIA już przerabiała temat Raytracingu przy okazji kart graficznych z serii GTX 400 wychodzi na to że teraz po latach wracają do tematu ;)

 

XtfMPIv.jpg

 

https://www.geforce.com/games-applications/pc-applications/design-garage

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jak mówił @jagular prawdziwego raytracingu w grach nie zobaczysz tylko sztuczki, bo to by zabiło każdą maszynę, ale pójdźmy dalej, @azgan wyobraź sobie technologię nie jak teraz i wcześniej widzi to nvidia każdego promienia światła, a dokładniejszą każdego fotonu światła, o fotonach poczytasz sobie w góglu. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jedno z dem (chyba od Microsoftu) pokazywało jak ray tracing może wpływać na okluzję otoczenia. mnie akurat to przekonuje bo okluzji nigdy dośc. refleksy raczej nie dla mnie

 

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem? grafen xD?

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@

 

Project PICA PICA - Real-time Raytracing Experiment using DXR (DirectX Raytracing)

 

https://www.youtube.com/watch?v=LXo0WdlELJk

 

ale nadal mnie nie przekonuje (fajna sprawa ale jakim kosztem? Serio 4x Titan V :E?)

 

Podczas gdy taki Quantum Break zadowoli się 1 przeciętną kartą podobnie zresztą jak w Star Wars Battlefront II :D

 

lbHNqY6.jpg

 

axaEr18.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie do gier granych na monitorach nie ma to większego sensu (nie zwiększa to w odczuwalny sposób jakości odczuć). Natomiast przy chełmie VR to już będzie miało większe przełożenie i w tym bym upatrywał sensu rozwoju tego.

 

W przypadku gier monitorowych to jedynie kolejny sposób nakręcania gimbazy, że muszą kupić kolejne, mocniejsze GPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

A tu taka ciekawostka, nawet intel kiedyś się tym zajmował. :E Całe 8 lat tamu.

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Przecież Physix istnieje, nazywa się GameWorks i ma masę efektów opartych na tej technologii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co pamiętam raytracing miał się tyczyć nie tylko oświetlenia, ale też np. cieni. Większość z tych demek wygląda co najmniej śmiesznie i dziwię się że postanowili pokazać właśnie to jako przykład raytracingu. Najlepiej wypada to demko Star Wars z UE4.

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

4k wygląda o wiele lepiej niż "raytracing" przedstawiony na większości tych demek.

 

 

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem?

Tak jak pisałem w innym wątku, do poziomu grafiki w grach z tego dema UE4 poczekamy 5-10 lat, z czego bardziej stawiałbym na tą górną granicę. Mogą nawet wprowadzić wydzielone jednostki do raytracingu do całej nowej serii, ale ich możliwości nie będą raczej zbyt duże. Ta technologia, mimo że znana, będzie dopiero raczkować.

 

 

grafen xD?

XD

 

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Też mnie to dziwi, szczególnie że raytracing przedstawiony na tych demkach nie powala. Możliwe, że M$ i Nvidia mają jakiegoś asa w rękawie i dowiemy się czegoś więcej na GTC.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

XD

 

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

 

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Futuremark też zaprezentował demo technologiczne z DirectX Raytracing

 

DirectX Raytracing tech demo - accurate real-time reflections

 

28eCbfs.gif

 

Na moje oko zysk jakości nieadekwatny do wymagań może za 10 lat będzie miało to sens a póki co lepiej spożytkować nadmiar mocy na wyższą rozdzielczość i grać w 4K lub z HDR10 :E

 

Pełna prezentacja do obejrzenia poniżej

 

https://www.youtube.com/watch?v=81E9yVU-KB8

Edytowane przez azgan
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

 

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

A co mają do tego komputery kwantowe? Wiesz jak ciężko się je programuje? Krzem będzie nadal wykorzystywany przez co najmniej 20 lat, choćby wzrost wydajnościowy z serii na serię był marginalny.

 

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Z tego co widziałem na screenach z innego wątku to w tym demie specjalnie zrobili jak najgorsze odbicia (te bez raytracingu). Trochę żenująca jest taka promocja na siłę, chociaż sam raytracing jest świetną technologią i zapewni nam później "filmowość" w grach do której tak bardzo dążą deweloperzy gier AAA. szczerbaty.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

 

Wszystko sie swieci bo to techdemo.

 

IMO bedzie jak z physx, firmwy partnerskie zaimplementuja, Ci ktorzy to zrobia dobrze to bedzie dzialac wzglednie partacze spieprza optymalizacje i tyle.

 

Sledzenie fotonu jak najbardziej ale czym to bliczac?:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kopacze na 5 Tytanach sobie pograją :lol2:

zeby to 5 tytanow wystarczylo :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oświetlenie w Metro zawsze robiło robotę przez co gra wygląda bardzo dobrze nawet dzisiaj ale fakt światło oraz obiekty nie odbijały się tam w posadce jak w "lustrzanym" odbiciu

 

d3VLAbK.jpg

 

Pytanie tylko czy faktycznie do uzyskania takiego efektu potrzebny jest RTX ;)

 

Podejrzewam że to będzie właśnie ta (jedyna) opcja ubijająca najwydajniejsze karty graficzne którą i tak większość wył. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spokojnie, na pewno tylko część gry będzie korzystała z RTX, cienie, AO czy odbicia. Zje pewnie z 20-30% mocy topowych GPU, ale przynajmniej coś się dzieje :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Swego czasu PowerVR chwalił się, że ich wyspecjalizowana jednostka do raytracingu zapewnia wydajność na poziomie GTX680 przy poborze mocy rzędu 2W. Fakty pewnie marketingowo podkręcone, ale generalnie tu bym upatrywał przyszłości (wyspecjalizowany sprzęt, a nie wykorzystanie SPU).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • O człowieku, a już myślałem, że decyzja zapadła i spokój, Ty mi tutaj takie wątpliwości zasiewasz:) Jeśli chodzi o monitor to wymiana na większy nie wchodzi w grę, bo zwyczajnie mi się nie zmieści i musiałbym kombinować z uchwytem naściennym i raczej by się to nie udało, bo byłoby za wysoko. Dlatego monitor zostaje czy tego chcę, czy nie chce. Co do tych kart, ich opłacalności, sensowności nabycia itd. to jakbym rzeczywiście miał w planach całonocne posiedzenia przy gierkach, to pewnie bym się w to bardziej angażował, ale biorąc pod uwagę, że na gierki nie zamierzam (choćbym chciał) poświęcać więcej niż 3-4 godziny tygodniowo i zważywszy na listę tytułów do ogrania (która jest dużo bardziej obszerna, niż to co tutaj podałem, bo wymieniłem tylko te "najbardziej" wymagające sprzętowo) w które do tej pory nie miałem nigdy okazji zagrać (bo sprzęt na to nie pozwalał), to zanim nadrobię tę kupkę wstydu, to pewnie już ze trzy generacje miną i okaże się, że wszystko będzie do wymiany, a ja będę już za stary, żeby wcelować myszką w przeciwnika  Plus, nie mam za bardzo głowy do kupowania używanego sprzętu, nawet jeśli wiem, że może się to odbijać na moim portfelu, ale po to pracuję, żeby móc sobie raz na jakiś czas zrobić taki (w sumie to nieuzasadniony i zbędny do życia) prezent. W związku z tym dziękuję za chęć ucywilizowania mnie jako gracza, ale chyba jednak zostanę przy tym na co się zdecydowałem.      
    • Do 90cm to daleko. Ja gram na 48" z takiej odległości w Apex Legends. UltraWide w FPSach wypada różnie. Nieraz trochę bardzo ucieka minimapa w bok albo inne czesci interfejsu. W CoD można sobie go zadiustować. Ale w Apexie już nie. Z kolei w Overwath na UltraWide przez pewien czas grało się z pasami po bokach, bo niby czitujesz jak taki używasz. idąc w tą stronę powinni byli zablokować 30FPS/Hz bo nie każdy ma monitor 100Hz+ albo komputer który pociągnie ponad 30FPS Za to z technicznego punktu widzenia, nawet DukeNuken3D działa z UWQHD całkiem sprawnie  
    • Polecam tego użytkownika @kola01 Po zmianie timingów read write copy ~65/89/65 k, sprawdzone w memtescie extreame bez błędów. Próbowalem na tych samych timingach tez 6200 ale tu juz sypalo bledami.
    • gratulacje czarna tapeta lub automatyczna żonglerka tapetami co jakis czas, ukrywanie paska, brak ikonek na pulpicie i wygaszacz obrazu, unikać wyświetlania statycznego kontentu godzinami bez przerwy (loga stacji telewizyjnych czy agresywne hudy) możesz też to olać i używać jak chcesz : ) masz gwarancję (doczytaj czy Samsung daje gwarancję na wypalenia do swoich Tv, bo tego nie wiem) ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- w temacie wypaleń czy ktoś z użytkowników C2 lub C3 często grywa w ultrawide (kustomowa rozdziałka) i zauważył jakeś małe retencje/wypalenia tym spowodowane (nierówne zużycie panelu)?
    • Czyli wszystko się zgadza co napisałem?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...