Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

Spokojnie, na pewno tylko część gry będzie korzystała z RTX, cienie, AO czy odbicia. Zje pewnie z 20-30% mocy topowych GPU, ale przynajmniej coś się dzieje :D

 

Raczej naciąganie na zakup kilku drogich kart graficznych pod pretekstem super technologii - dziwne że nawet na konsolach obecnej generacji daje się osiągnąć zaskakująco dobre efekty i to bez RTX :E

 

JvA3Q0I.jpg

 

issZfAr.jpg

 

I jeszcze jeden przykład pięknie odbijających się świateł tym razem od mokrych powierzchni oraz samych kropli deszczu

 

wSO6VWC.jpg

 

Bardziej nam trzeba utalentowanych developerów, dobrych programistów i grafików będących w stanie wykorzystać aktualne dobrodziejstwa technologii które działają i wyglądają dobrze na obecnym sprzęcie ;)

Edytowane przez azgan
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Swego czasu PowerVR chwalił się, że ich wyspecjalizowana jednostka do raytracingu zapewnia wydajność na poziomie GTX680 przy poborze mocy rzędu 2W. Fakty pewnie marketingowo podkręcone, ale generalnie tu bym upatrywał przyszłości (wyspecjalizowany sprzęt, a nie wykorzystanie SPU).

Noby tak, ale byla sobie firma robiaca karty do fizyki, a potem bum, Nvidia kupila, kart nie ma a wlaczynie physx na slabszych jednostkach czesto zabija wydajnosc

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@

 

Tak było - Ageia PhysX Accelerator Card

 

https://www.youtube.com/watch?v=DzfYuuna5Yo

 

od tamtej pory fizyka w grach praktycznie nie ruszyła z miejsca.

 

Osobiście wolałbym aby zajęli się rozwojem fizyki w grach :cool:

 

A tu taka ciekawostka, nawet intel kiedyś się tym zajmował. :E Całe 8 lat tamu.

 

Intel to nawet kupił kiedyś całe studio robiące grę w oparciu o Raytracing

 

Ktoś jeszcze pamięta Project Offset?

 

https://www.youtube.com/watch?v=gxr_4sZ7w7k

 

Jak się nazywała ta karta Intela do Raytracingu? Library - dobrze pamiętam?

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ojejku, czyli dalej narzekanie ;)

Sam raytracing to jedna z metod wyliczania/renderowania sceny. Ma swoje wady i ograniczenia, dlatego też jej użycie nie oznacza automatycznie fotorealistycznej sceny. "Czysty" raytracing zarżnąłby, przy typowych ilościach świateł w scenach w grach, każdy sprzęt, więc po prostu serwuje się nam tricki i uproszczenia.

Czy to jest potrzebne? Niektórzy chyba zapominają o tym, że świat się nie kończy w 2018 roku, a po obecnej generacji kart będą następne i następne.

Każda kolejna będzie szybsza, trzeba stawiać przed nimi coraz większe wymagania, żeby był w ogóle sens ich istnienia.

"Nie widzę różnicy" czy "wymagania nieadekwatne do przyrostu jakości" to teksty, które w gierkowym świecie czyta się już od kilkudziesięciu lat. Ciągle to samo. Ciągle ludzie myślą, że wzrost jakości graficznej sceny skaluje się liniowo z potrzebnymi do jej wyświetlenia obliczeniami. Za 20 lat też będziemy czytać takie marudzenie ;)

Edytowane przez jagular

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy to jest potrzebne? Niektórzy chyba zapominają o tym, że świat się nie kończy w 2018 roku, a po obecnej generacji kart będą następne i następne.

To samo mówiono o physixie, nie wspomnę już o hairworks :P Poza tym raytracing i path tracing były już omawiane w 1990 i nic z tego nie wyniknęło.

Edytowane przez Pulpit

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W tym temacie widać że dla niektórych świat się kończy w 2018. :E, a to nie prawda kto by 100 lat temu pomyślał że wystrzelimy samochód w kosmos, lub będziemy mieć "komputery" w kieszeni. :E, ta technologia jak i wiele innych to tylko mały dodatek do czegoś większego które kiedyś nadejdzie, mnie np. VR nie bawi, ale technologia holodeku już mi się bardzo podoba.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś pamięta jak się nazywał ten program (Benchmark aka TechDemo) z Raytracingiem dla Radeona 9700 Pro :E ?

 

P5mxbxW.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W tym temacie widać że dla niektórych świat się kończy w 2018. :E

Bo od takich tech dem i conceptów to tu możnaby cały dział założyć

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo od takich tech dem i conceptów to tu możnaby cały dział założyć

To jest dobry pomysł nawet, ale od początku od czasów pierwszych kart 3D do teraz. scratchhead.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pulpit dokładnie o Raytracingu to już od dawna NVIDIA i ATi trąbiło a co z tego wyszło wszyscy wiedzą - ile to już topowych kart graficznych z górnej półki mieliśmy a efekty tego jakie są każdy widzi :E.

 

NVIDIA już przerabiała temat Raytracingu przy okazji kart graficznych z serii GTX 400 wtedy też miał być przełom :P

 

https://www.youtube.com/watch?v=kcP1NzB49zU

 

Wystarczy zobaczy co się dzieje z wydajnością po odpaleniu samego VXAO a mydlą oczy człowiekowi Raytracingiem i założę się że tak będą reklamowali nowe karty graficzne :E

 

Kup Pan nowe GPU najlepiej dwa a pograsz w gry z Raytracingiem i ciach prezentacja nowego Metro Exodus albo Shadow of the Tomb Raider - tak to pewnie będzie wyglądać :lol2:

 

https://www.youtube.com/watch?v=rn_aZYUi2xs

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja jestem za takim tematem, ale żeby nie skończyło się na "przyszłość gamingu", który utonął 3 strony temu :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W tym temacie widać że dla niektórych świat się kończy w 2018. :E, a to nie prawda kto by 100 lat temu pomyślał że wystrzelimy samochód w kosmos, lub będziemy mieć "komputery" w kieszeni. :E, ta technologia jak i wiele innych to tylko mały dodatek do czegoś większego które kiedyś nadejdzie, mnie np. VR nie bawi, ale technologia holodeku już mi się bardzo podoba.

Dlaczego twierdzisz, ze swiat sie konczy dla niektorych w 2018r? Wlasnie Ci niektorzy wiedza, ze o ray tracingu mowilo sie juz hoho chyba z tego co pamietam przy okazji radeona 9700 wiele lat temu? Potem jak wyzej podlinkowali, bylo juz w serii 4xx etc.

 

Tutaj nie chodzi o to, ze ludzie nie chca postepu, po prostu nie ma sie co napalac. PhysX tez super i co, ile gier to ma obecnie, jak bardzo jest to wykorzystywane? Pozyjemy zobaczymy, ale watpie by mozna bylo ten ray tracing uznac za przelom.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatni przełom to były chyba lata '90 i wejście akceleratorów 3d grafiki. Potem to już nic się zbytnio nie zmieniało.

Karty coraz szybsze, demka coraz ładniejsze, gierki dalej nie wyglądają jak scenki z demek, ale ładniejsze są chociaż w porównaniu do starszych gierek, hasełka reklamowe nawet za bardzo się nie zmieniają ;)

Postęp jest powolny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatni przełom to były chyba lata '90 i wejście akceleratorów 3d grafiki. Potem to już nic się zbytnio nie zmieniało.

Karty coraz szybsze, demka coraz ładniejsze, gierki dalej nie wyglądają jak scenki z demek, ale ładniejsze są chociaż w porównaniu do starszych gierek, hasełka reklamowe nawet za bardzo się nie zmieniają ;)

Postęp jest powolny.

Teraz mamy złoty okres HDRu, 4k i 144Hz czyli 1% graczy dostało nowy ficzer :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz mamy złoty okres HDRu, 4k i 144Hz czyli 1% graczy dostało nowy ficzer :(

Do 4k i tak sprzetu nie ma, nawet tytan za pol nerki dostaje zadyszki.

 

144FPS fajne, ale do tego tez trzeba miec grafike. Mam nadzieje, ze nastepna generacja zapewni nam 4k@60fps w srednim segmencie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do 4k i tak sprzetu nie ma, nawet tytan za pol nerki dostaje zadyszki.

 

144FPS fajne, ale do tego tez trzeba miec grafike. Mam nadzieje, ze nastepna generacja zapewni nam 4k@60fps w srednim segmencie.

 

:E

Edytowane przez DisconnecT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja jestem za takim tematem, ale żeby nie skończyło się na "przyszłość gamingu", który utonął 3 strony temu :E

 

Szczerze to co może nam zaoferować NVIDIA RTX to odbicia które już znamy z takich gier jak np. STAR WARS Battlefront II czy Quantum Break tylko dowalą VXAO + oświetlenie na Voxelach oraz cienie PCSS lub HFTS i tadam macie Raytracing zabijający topowe GPU :E

 

https://www.youtube.com/watch?v=DqNwBP9BPaY

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jestem stary jak pamiętam czasy T&L i TrueForm od ATI. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz jest większa szansa na przełom, przynajmniej za te dwie generacje dalej :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do 4k i tak sprzetu nie ma, nawet tytan za pol nerki dostaje zadyszki.

 

144FPS fajne, ale do tego tez trzeba miec grafike. Mam nadzieje, ze nastepna generacja zapewni nam 4k@60fps w srednim segmencie.

 

Jeśli masz na myśli GTX xx70 jako średni segment to może jeszcze będzie w miarę możliwe (wydajność podobna do 1080 Ti), ale nie licz na max. detale, tym bardziej jeśli rzeczywiście chcą wprowadzić choćby namiastkę raytracingu w nowych grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przypomina mi się jak hucznie była reklamowana Tessellacja w DirectX 11

 

https://www.youtube.com/watch?v=bI1_quVr_3w

 

widać po nowych grach że jest jej tyle co kot napłakał ale teraz będzie przełom bo dokooptowali jeszcze bardziej wymagający Raytracing :E. Niskopoziomowe API się nie sprawdza to trzeba czymś ratować sprzedaż ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe kiedy skończy się to jęczenie. Od dwóch lat wiadomo, że ray tracing będzie stopniowo wchodził do gier i ma to miejsce. Więc przestańcie jęczeć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Wszystkie kostiumy:     Jest ich 30, aż dziwne, że część z nich nie wylądowała w jakimś sklepiku   biorąc pod uwagę, że devi robili wcześniej gry na mobilki.:D Niektóre z nich...   Nie wiem też skąd tyle narzekania. Są też "normalne" stroje, nie każdy musi latać z "gołą pupą".
    • Ale to co zostało kupione skoro ten xeon E3-1230V2 z linku wchodzi na tą płytę główną? Może Ci wysłali inny?
    • Szczerze mówiąc wydajność 4090 z niższym poborem W i ceną by mi wystarczyły. No ale właśnie, tu pojawia się kwestia ceny.   W ogóle to zastanawiam się czy do 5080/5090 przebiedować jeszcze na obecnej platformie pod 1440p UW, czy raczej nie ma to sensu. Bottleneck CPU będzie się zdarzać, ale myślę że to naprawdę tragiczne przypadki.   Jeśli budowałbym nową platformę to już raczej na 8800/9800X3D (nie wiadomo jakie oznaczenie będzie miała następna seria). 
    • Na prawdę chcemy tutaj udowodnić globalne ocieplenie na podstawie 60 ostatnich lat?  To chyba trolling. Nawet co do tych danych z lat 50.: czy narzędzia / technologia użyta do pomiarów wtedy jak i dzisiaj jest taka sama? Czy punkty pomiarowe znajdują się w takich samych odległościach od zurbanizowanych części miast, aby nie zaburzać pomiarów? Jeśli choćby 1 z tych 2 rzeczy jest inne to te pomiary nie są dokładne, bo staramy się w nich zbadać średnie odchylenia o dziesiąte części stopni. Wiarygodne dane byłby by np. z ostatnich 150-200 lat gdy spełnione byłby by takie same warunki co do miejsc pomiaru i za pomocą takich samych narzędzi. Co i tak jest tylko analizą danych w krótkoterminowych okresie i nijak ma się do wahań temperatur w większej skali.   Albo te wykresy powyżej dotyczące np. poziomu pokrywy śnieżnej i temperatury zimą - cały w ciągu ostatnich 50 lat są wahania w tym ostatni pomiar wychodzący poza normę. Ponownie jednak - brak jakichkolwiek szczegółów w jakich warunkach i za pomocą jakich narzędzi były prowadzone pomiary. Na pewno na przestrzeni lat były one bardziej dokładne - co poddaje tylko w wątpliwość wcześniejsze pomiary gdzie margines błędu jest wyższy.  W bardziej długoterminowym okresie czasu wygląda to mniej więcej tak: http://www.faculty.ucr.edu/~legneref/bronze/climate.htm Albo tak: A Temperature reconstruction with 95% confidence intervals shown, from Loehle and McCullough (published in Energy and Environment, 2008): Correction to: A 2000 year global temperature record based on non-tree ring proxies. As this reconstruction is based soley on proxy data, the recent, measured global average temperature was not added to the end of the record as was done by Mann. The last data point represents a 29 year average centered around 1935   Albo tak, dla zwolenników globalnego ocieplenia. Nawet ten wykres nie do końca jest dla nich korzystny. Jest on kwestionowany ze względu na duzą niedokładność: czarna linia poziom uśredniony, żółte linie - niepewność ""Hockey stick" reconstruction of global average temperature changes over 1000 years (ending in 1998). Reconstruction performed using proxy data before 1900 and instrumental data after 1900. Yellow and red shading show author's estimation of uncertainty in the reconstruction."   Dlatego męczą mnie te teksty, że globalne ocieplenie to niepodważalna prawda i jest milion dowód nie do obalenia, bo tak nie jest. 
    • Widzę, że sam nie wie co chce kupić, ale CCC nadal działa 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...