Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

Sporo osób teraz ekscytuje się Raytracingiem i tymi wszystkimi odbiciami, refleksami świetlnymi oraz niemal lustrzanymi taflami na podłodze podczas gdy mniej wymagające efekty graficzne wyglądają już teraz bardzo dobrze ;)

 

Star Wars Battlefront II (na silniku Frostbite 3)

 

FucUM4S.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo na Unreal Engine 4

 

https://www.youtube.com/watch?v=J3ue35ago3Y

 

Quantum Break (na silniku Northlight Engine - tym samym co w poniższym TechDemo)

 

71sN3M1.jpg

 

Tutaj do porównania Real-Time Ray Tracing TechDemo od Remedy Entertainment

 

https://www.youtube.com/watch?v=jkhBlmKtEAk

 

Dema technologiczne były odpalane na czterech kartach graficznych Titan V - pytanie czy efekt końcowy wart zachodu :E?

 

A Wy co o tym myślicie :) ?

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście, że potrzebujemy. Na tym właśnie polega postęp, że nie od razu jest to masowo dostępne i opłacalne. Gry będą wyglądać lepiej, pewnie też usprawni to pracę programistów, no same plusy. Wymagania będą większe? Z każdą nową grą są większe, więc to żaden argument :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdziwego raytracingu i tak w rt nie ma. Wszystko to sztuczki ;)

Czy potrzebne? To chcecie ładnych gier, czy nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Dokładnie, gdzieś koło 2012 była już o tym mowa, znowu wracają, a nie ma mocy obliczeniowej żeby to działało dobrze i wyglądało ładnie, a nie jak tamte filmiki, że wszystko lśni się jak psu jajca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

 

NVIDIA już przerabiała temat Raytracingu przy okazji kart graficznych z serii GTX 400 wychodzi na to że teraz po latach wracają do tematu ;)

 

XtfMPIv.jpg

 

https://www.geforce.com/games-applications/pc-applications/design-garage

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jak mówił @jagular prawdziwego raytracingu w grach nie zobaczysz tylko sztuczki, bo to by zabiło każdą maszynę, ale pójdźmy dalej, @azgan wyobraź sobie technologię nie jak teraz i wcześniej widzi to nvidia każdego promienia światła, a dokładniejszą każdego fotonu światła, o fotonach poczytasz sobie w góglu. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jedno z dem (chyba od Microsoftu) pokazywało jak ray tracing może wpływać na okluzję otoczenia. mnie akurat to przekonuje bo okluzji nigdy dośc. refleksy raczej nie dla mnie

 

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem? grafen xD?

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@

 

Project PICA PICA - Real-time Raytracing Experiment using DXR (DirectX Raytracing)

 

https://www.youtube.com/watch?v=LXo0WdlELJk

 

ale nadal mnie nie przekonuje (fajna sprawa ale jakim kosztem? Serio 4x Titan V :E?)

 

Podczas gdy taki Quantum Break zadowoli się 1 przeciętną kartą podobnie zresztą jak w Star Wars Battlefront II :D

 

lbHNqY6.jpg

 

axaEr18.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie do gier granych na monitorach nie ma to większego sensu (nie zwiększa to w odczuwalny sposób jakości odczuć). Natomiast przy chełmie VR to już będzie miało większe przełożenie i w tym bym upatrywał sensu rozwoju tego.

 

W przypadku gier monitorowych to jedynie kolejny sposób nakręcania gimbazy, że muszą kupić kolejne, mocniejsze GPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

A tu taka ciekawostka, nawet intel kiedyś się tym zajmował. :E Całe 8 lat tamu.

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest to nowa technologia, teraz tylko nvidia naobiecywała i ludzie się jaraja, a skończy się jak z physixem. Bedzie w 3 grach i będzie zjadać 30% wydajności

Przecież Physix istnieje, nazywa się GameWorks i ma masę efektów opartych na tej technologii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co pamiętam raytracing miał się tyczyć nie tylko oświetlenia, ale też np. cieni. Większość z tych demek wygląda co najmniej śmiesznie i dziwię się że postanowili pokazać właśnie to jako przykład raytracingu. Najlepiej wypada to demko Star Wars z UE4.

a czy potrzebujemy? jeśli mam wybierac pomiędzy 4k (niektórzy już bredzą o 8k) i ray tracingiem to bez wahania biorę ray tracing.

4k wygląda o wiele lepiej niż "raytracing" przedstawiony na większości tych demek.

 

 

a co do ilośc ywmaganej mocy. no sorry ale to jest szaleństwo. nawet utrzymując obence (niezłe) tempo rozwoju kart graficznych (Nvidii) to pewnie by musiało minąć z 10 lat zanim ray tracing będzie obsługiwany przez karty ze średniego i wysokiego segmetnu. no ale problem w tym że Nvidia już jest na 14nm i trudno będzie im robić większe skoki wydajnościowe bez skoków procesu technologicznego. do ilu zejdą? do 7nm? do 5nm? a potem?

Tak jak pisałem w innym wątku, do poziomu grafiki w grach z tego dema UE4 poczekamy 5-10 lat, z czego bardziej stawiałbym na tą górną granicę. Mogą nawet wprowadzić wydzielone jednostki do raytracingu do całej nowej serii, ale ich możliwości nie będą raczej zbyt duże. Ta technologia, mimo że znana, będzie dopiero raczkować.

 

 

grafen xD?

XD

 

 

strasnzie ciekawi mnie fakt o którym wspominacie. że ray tracing nie jest czymś nowym a mimo to Microsoft i Nvidia trąbią jakby odkryli samochód na wodę :hmm: nawet AMD już kilka lat temu miało swoją implenetację ray tracingu w ramach gpuopen.

Też mnie to dziwi, szczególnie że raytracing przedstawiony na tych demkach nie powala. Możliwe, że M$ i Nvidia mają jakiegoś asa w rękawie i dowiemy się czegoś więcej na GTC.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

XD

 

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Krzem się kiedyś skończy, myślisz że w 2050 roku do produkcji inteligentnych sex-robotów by produkować ich "mózgi" będą używali krzemu, ja myślę że nie. ;) tak odbiegając od tematu na chwilę.

 

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Futuremark też zaprezentował demo technologiczne z DirectX Raytracing

 

DirectX Raytracing tech demo - accurate real-time reflections

 

28eCbfs.gif

 

Na moje oko zysk jakości nieadekwatny do wymagań może za 10 lat będzie miało to sens a póki co lepiej spożytkować nadmiar mocy na wyższą rozdzielczość i grać w 4K lub z HDR10 :E

 

Pełna prezentacja do obejrzenia poniżej

 

https://www.youtube.com/watch?v=81E9yVU-KB8

Edytowane przez azgan
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O grafenie trąbi się już kilku lat i póki co nic z tego nie wynika. Niby stworzyli już jakieś grafenowe jednostki, ale z tego co pamiętam były z nimi jakieś problemy, które póki co dyskwalifikują je z ogólnoświatowej produkcji. Zanim dojdziemy do grafenu minie jeszcze sporo czasu, a wtedy może się okazać że pojawi się jeszcze inny, bardziej praktyczny zamiennik krzemu. Póki co producenci będą wyciskać z krzemu ile się da na różne, nawet najbardziej kreatywne sposoby, byle tanim kosztem wydoić z naszych portfeli jak najwięcej.

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

 

Dla mnie przerost formy nad trescia, oczywiscie poprawia to wyglad ale nie jest to adekwatne do wzrostu wymagan.

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputery kwantowe już są, myślisz dlaczego obliczenia wykonują szybciej od komputerów krzemowych, a będą jeszcze mocniejsze i potężniejsze, sorry ale na krzemie nie zbudujesz komputera Matrioszka czy sond Von Neumana. :)

A co mają do tego komputery kwantowe? Wiesz jak ciężko się je programuje? Krzem będzie nadal wykorzystywany przez co najmniej 20 lat, choćby wzrost wydajnościowy z serii na serię był marginalny.

 

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Z tego co widziałem na screenach z innego wątku to w tym demie specjalnie zrobili jak najgorsze odbicia (te bez raytracingu). Trochę żenująca jest taka promocja na siłę, chociaż sam raytracing jest świetną technologią i zapewni nam później "filmowość" w grach do której tak bardzo dążą deweloperzy gier AAA. szczerbaty.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Wszystko się świeci jak psu jajca, śledzenie pojedynczego fotonu to by było to.

 

Coś takiego ale na większych scenach: https://pl.wikipedia.org/wiki/Photon_mapping

 

Wszystko sie swieci bo to techdemo.

 

IMO bedzie jak z physx, firmwy partnerskie zaimplementuja, Ci ktorzy to zrobia dobrze to bedzie dzialac wzglednie partacze spieprza optymalizacje i tyle.

 

Sledzenie fotonu jak najbardziej ale czym to bliczac?:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kopacze na 5 Tytanach sobie pograją :lol2:

zeby to 5 tytanow wystarczylo :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oświetlenie w Metro zawsze robiło robotę przez co gra wygląda bardzo dobrze nawet dzisiaj ale fakt światło oraz obiekty nie odbijały się tam w posadce jak w "lustrzanym" odbiciu

 

d3VLAbK.jpg

 

Pytanie tylko czy faktycznie do uzyskania takiego efektu potrzebny jest RTX ;)

 

Podejrzewam że to będzie właśnie ta (jedyna) opcja ubijająca najwydajniejsze karty graficzne którą i tak większość wył. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spokojnie, na pewno tylko część gry będzie korzystała z RTX, cienie, AO czy odbicia. Zje pewnie z 20-30% mocy topowych GPU, ale przynajmniej coś się dzieje :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Swego czasu PowerVR chwalił się, że ich wyspecjalizowana jednostka do raytracingu zapewnia wydajność na poziomie GTX680 przy poborze mocy rzędu 2W. Fakty pewnie marketingowo podkręcone, ale generalnie tu bym upatrywał przyszłości (wyspecjalizowany sprzęt, a nie wykorzystanie SPU).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Propaganda panie, propaganda. Leci z obydwu stron, na tym polega polityka. Pamięta ktoś jeszcze Wyspę węzy i Ducha Kijowa który był filmem z gry DCS? Tak się buduje morale   Jakby mówili prawdę to raz że Ukraińcy by nie walczyli, a dwa inne narody nie chciałyby im pomagać, bo nie ma sensu.  Zresztą w tej wojnie głównie chodzi o to, żeby jak najwięcej Rosjan padło na froncie i sprzętu, nikomu nie zależało (może poza UA) żeby szybko skończyć konflikt. Rosja traci sprzęt i ludzi, a zachód się bogaci bo lecą zamówienia na sprzęt. 
    • od kiedy TV LG nie mają gwarancji na wypalenia? 
    • Nie ma to jak wybrać sobie fragment całości + nagłówek i na tej podstawie zbudować narrację strachu i odpowiednią propagandę.  W programie w którym był też gen. Samol było więcej gości i zdania były różne https://www.polsatnews.pl/wiadomosc/2024-04-21/sniadanie-rymanowskiego-w-polsat-news-i-interii-transmisja-od-godz-9556/ I tak to wszystko co w tym programie było to wyłącznie OPINIE a nie stwierdzenia faktów. Dlatego wypowiedzi są okraszone słowami "prawdopodobnie", "możliwe", "wydaje mi się" itp. 
    • Profil ICC jest pod konkretna sztuke monitora, a nie dla kazdego
    • Nie było chyba tematu o nim, po filmie Stilgara postanowiłem kupić i potestować, na razie dopiero godzinę popracowałem ale jakieś pierwsze wrażenia mam.  Po przesiadce z LG 27GP850 od razu rzuca się w oczy lepsza czerń, dużo, dużo lepsza... Nawet na domyślnych ustawieniach bez Local Dimming różnica jest spora. Forum pclola mam w ciemnym motywie i różnica jest kolosalna, dużo lepiej to wygląda. Nie miałem wcześniej porównania dobrego i myślałem że kontrast z LG jest ok, ale nie jest. Nawet w ciągu dnia nie domaga.  Odnośnie Local Dimming - w trybie SDR nie widzę większego sensu bawić się tą opcją. Do pracy czy przeglądania neta koniecznie trzeba wyłączyć, bo monitor nie wie że czytamy forum i cały ekran ma być równomiernie podświetlony, w efekcie tam gdzie jasno mamy jasny tekst/ikony, a gdzie ciemno to ciemne. Irytujące mocno. Za to w grach czy filmach... Jasność spada więc trzeba by podkręcić, a nie ma skrótu szybkiego czy profilu by to zrobić. Może w aplikacji się da coś wykombinować, nie patrzyłem jeszcze. Ale i tak raczej sensu nie ma, w końcu to SDR więc dużej roboty nie zrobi. Za to w trybie HDR... Tu już jest bajka, jednym skrótem włączamy HDR i od razu mamy local dimming ustawiony na Strong (niby Medium lepszy, ale ja na razie różnic większych nie widzę). Wiadomo że nie będzie takiej czerni i kontrastu jak w OLED, ale porównując do poprzedniego monitora który HDR nie miał wcale to jest kosmos. W końcu płomienie czy wybuchy potrafią świecić, a tam gdzie ciemno to jest ciemno. Póki co próbowałem w Callisto Protocol bo różnica między ciemnym/jasnym jest spora i efekt od razu widoczny (ciemny korytarz i płomienie, mega).  Smużenie - jeszcze nie testowałem szybkich gier, w weekend pewnie usiądę dłużej i przelecę wszystkie gry jakie mam obecnie (w Squad smużenie było spore na poprzednim VA).  VRR - działa, według RTINGS monitor ma okropny flickering i nie da się go używać, ale póki co nie zanotowałem ani jednego mignięcia. Może jak FPS jest niestabilny i spada do mocno to by coś mignęło, ale jeszcze takiej sytuacji nie miałem. Tutaj chyba znowu Squad będzie dobrym testem, bo dzięki Unreal Engine dropy i stutter są na porządku dziennym Menu okropne i ciężko się po nim porusza, ale gdzieś musieli przyciąć koszty.... Monitor kosztował mnie 1600 zł, co jest trochę szokiem jak na taki HDR (rok temu za tyle kupiłem LG 850GP). Miniledy w najbliższych latach coś czuję że będą się upowszechniać i ładować coraz więcej stref, fajny wybór jak ktoś nie chce drogiego OLEDa z wadami  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...