Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

crux

Czy wykorzystanie DLSS3 z Frame Generator pogarsza jakość gier? Bonusowo rozważania RTX 4070 vs RX 6950 XT ;)

Rekomendowane odpowiedzi

Cześć,

Myślę, że pytanie, które zadałem w tytule i które powtarzam tutaj jest zasadne. Pojęcie wymaga wyjaśnienia i doprecyzowania: Czy stosowanie DLSS3 a właściwie składającego się na niego DLSS 2 + Frame Generator jest odczuwalne w trakcie grania? 

A teraz najważniejsze: Proszę o odpowiedź przede wszystkim posiadaczy RTX 40X0 a nie teoretyków zapoznanych z opowieściami z mchu i paproci, powtarzającymi za kolegami, youtubem albo pamiętającymi DLSS1. 

 

1. DLSS2:

Czy to rozwiązanie ma wady, które bez doszukiwania się z nosem w monitorze, bez stopklatek lub szukania się na siłę aby udowodnić swoją "rację", są widoczne i pogarszają wrażenia wizualne? Ciągle powtarzają się głosy w stylu "mydło", "fake frames", "rozmydlacze" itd. Ile w tym jest racji? Jak pewnie część wie jest dostępny materiał na Hardware Unboxed (LINK) gdzie chłopaki udowodnili, że obraz nie tylko nie jest gorszy lecz nawet lepszy w większości przypadków (tylko tryb Quality dla DLSS2) od trybu bez wspomagania czyli natywnego. Mam Radeona i gdzie tylko mogę to używam FSR2 i nie widzę wad optycznych (istotnych co wyjaśniam dalej). Gdzieś na porównaniach/testach chyba na PCC wspomniano, że w Cyberpunk dym jest rozpikselowany w trybie FSR2. Potwierdzam, gdy to przeczytałem to sprawdziłem i faktycznie jest. Ale musiałem o tym przeczytać a to oznacza dla mnie, że nie jest to rzecz rzucająca się w oczy (moja wada wzroku to +0,75 ;)) a monitor 34", spory. To tylko jeden przykład. Zdarzają się również, co prawda rzadko, ale jednak, migające gdzieś w tle tekstury, ale to jednak FSR2, który niestety jest gorszy od DLSS2. Czy migające tekstury przeszkadzały mi? Niespecjalnie, ale ofc dobrze aby ich nie było. 

2. Frame Generator:

Czy wykorzystanie tego trybu jest odczuwalne? Ponoć jak się go włącza przy 30 fps to jest zbyt niska wartość aby frame generator skutecznie działał. Jak to z tym jest? I przede wszystkim co z tym imput lagiem, odczuwalne? Zaznaczam, że nie gram w multi (zostawiam Fortnite nastolatkom albo 9 letniemu chrześniakowi). 

 

Ww. pytania spowodowane w końcu coraz ciekawszą sytuacją na rynku kart graficznych. Ceny spadają! Teraz sam już nie wiem czy pchać się w 4070/4070 Ti (DLSS3 kusi) czy może jednak 6950XT albo jeszcze lepiej 7900XT? No i liczę na FSR3 z dodanym odpowiednikiem Frame Generator a więc Motion Fluid. O ile mam na co liczyć, patrz pytanie nr 2 powyżej :) Nie chciałbym moimi wynurzeniami wzbudzić tutaj powstania obozów, chciałbym jedynie usłyszeć fakty z pierwszej ręki a nie wyniki testów na serwisach. Pojawiają się regularnie tutaj na forum pytania jaką kartę kupić, jest temat 6950 XT vs 4070 i to bardzo dobry temat, ale aby jednak podjąć ostateczną decyzję o wyborze to należy wyjaśnić powyższe kwestie. Z góry dzięki.

 

Edytowane przez crux
Zmiana tytułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pięknie napisałeś bo sam się zastanawiam i nie mogę znaleźć na to odpowiedzi. Odesłałem referenta 6950 bo kultura pracy i wycie cewek mnie irytowały mając kompa 30 cm od głowy:)

Też nie wiem czy wziąć 4070 i ratować się DLSS czy dopłacać do 4070ti  a może niereferencyjnego 6950 lub 7900xt. Też gram w FHD a na 1440p może przejdę w przyszłym roku. W sumie troche problemów miałem z tymi sterownikami AMD ale do ogarnięcia:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

U mnie właśnie niedawno zaszła zmiana z FullHD na 1440p i ... 5600XT zdecydowanie przestał wystarczać :) Stąd też nowa grafika by się przydała :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Negatywny wpływ DLSS przeważnie widać na drobnym tekście i teksturach, które robią się odrobinę mniej wyraźne i gubią szczegóły. Na tyle, że przeważnie przełączając się pomiędzy DLSS ON/OFF jestem w stanie te różnicę dostrzec. Ale już gdyby ktoś mi uruchomił grę i na ślepo kazał powiedzieć czy DLSS jest włączony czy nie, to miałbym problem. Są też gry, w których włączenie DLSS faktycznie poprawia antyaliasing i redukuje migotanie tekstur (shimmering). Oraz gry, gdzie wbudowane AA wcale nie wygląda lepiej niż DLSS, mimo spadku wydajności. Wiedźmin 3 Next Gen na przykład.

Może i DLSS generuje nieco lepszej jakości obraz niż FSR i XeSS, ale to nadal upscaling, jeśli widziałeś jedno to mniej więcej wiesz czego się spodziewać.

2. Włączone FG da się zauważyć jeśli wie się czego szukać. Przeważnie kręcąc kamerą dookoła obiektu, albo gdy obiekt przemieszcza się na kontrastowym tle (np. zebra). Pojawia się wtedy ghosting, łatwiej go zauważyć w grach TPP niż FPP. Za to żeby odczuć różnicę w input lag musisz być już dobrze wytrenowany, ja nie jestem i ten teoretycznie większy lag nie robi mi różnicy :)

 

  • Thanks 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, someI napisał:

1. ... Może i DLSS generuje nieco lepszej jakości obraz niż FSR i XeSS, ale to nadal upscaling, jeśli widziałeś jedno to mniej więcej wiesz czego się spodziewać.

2. Włączone FG da się zauważyć jeśli wie się czego szukać. Przeważnie kręcąc kamerą dookoła obiektu, albo gdy obiekt przemieszcza się na kontrastowym tle (np. zebra). Pojawia się wtedy ghosting, łatwiej go zauważyć w grach TPP niż FPP. Za to żeby odczuć różnicę w input lag musisz być już dobrze wytrenowany, ja nie jestem i ten teoretycznie większy lag nie robi mi różnicy :)

 

1. Tak wiem czego się spodziewać i nie rozumiem wylewu negatywych (niepotwierdzonych faktami) opinii o DLSS/FSR gdyż wykorzystanie FSR2 to pozytywne rozwiązanie (wydajność) przy właściwie niedostrzegalnych wadach. A ciągle pamiętam, że DLSS3 jest lepsze a FSR3 w drodze. 

2. Myślę, że u mnie będzie podobnie z niedostrzeganiem. Wolę pograć niż szukać dziury w całym. 

 

Edit: Tutaj jeszcze jeden materiał odnośnie DLSS3. Co prawda to XKOM więc można założyć pewną stronniczość, w końcu sklep, ale przedstawione "wady" są całkowicie wg mnie nieistotne. Do tego imput lag z ciekawymi wynikami.

Edytowane przez crux

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 godzin temu, crux napisał:

 

1. DLSS2:

Czy to rozwiązanie ma wady, które bez doszukiwania się z nosem w monitorze, bez stopklatek lub szukania się na siłę aby udowodnić swoją "rację", są widoczne i pogarszają wrażenia wizualne? 

2. Frame Generator:

Czy wykorzystanie tego trybu jest odczuwalne?

 

 

1) Ma widoczne przekłamania w obrazie. Ostatnio grałem w Spider Mana i z DLSS czasami widoczne jest mocne smużenie na niektórych obiektach (samolot na niebie, ruchy rąk NPC). Nic, co by bolało czy psuło odbiór gry. W Death Stranding mocno było to widoczne podczas rozgrywki (dużo małych, unoszących się w górę cząsteczek), ale z tego co kojarzę, tam prawie to wyeliminowano patchami/nowszą wersją DLSS.

2) Włączyłem we wspomnianym SpiderManie. Nie czułem różnicy, tak czy srak miałem +60fps (na 120Hz ekranie).

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Siedzę na 4070TI i obecnie ogrywam CP z DLSS+FG. Jak by artefakty waliły po oczach to bym z tym nie grał. Na początku sceptycznie podchodziłem do FG ale daje radę ta technologia. 

  • Like 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dziś pograłem w deliver as the moon DLSS na Quality sam byłem zaskoczony jak obraz sie rozmazał szczególnie jak sie przyjrzysz  detalom na stołach

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To wchodzi na bardzo skomplikowane zagadnienie obrazu w ruchu.
Potrzebujesz monitora na bardzo szybkiej matrycy z trybem "migotania podświetleniem" lub w OLEDach BFI, do tego musi ten tryb dobrze działać. Do tego content musi pasować, bo żebyś widział w szybkim ruchu wszystko, to musisz mieć albo 500fps/500Hz lub najlepiej 1000/1000, albo użyć migotania, co wymaga stałego framerate'u. Czyli nie 109 czy 130fps w 120Hz, a idealnie równo 120. 
Do tego musisz rozumieć zagadnienie, a większość tego warunku nie spełnia.
Do tego musisz porównać z obrazem ostrym w ruchu a nie jakimś TAA.

I wtedy na pytanie czy widać różnicę odpowiedź brzmi: Tak. DLSS3 wygląda tragicznie.
Do tego nie działa dobrze z v-sync ON, a bez v-sync praktycznie nie ma monitorów, które radzą sobie dobrze z ruchem. 
To może pomóc jeśli np. masz 50fps i nie więcej. I tak wtedy nie masz jak uzyskać wyraźnego obrazu w szybkim ruchu, a udawane klatki mogą wypaść sumarycznie lepiej.

Być może kiedyś to będzie pracowało poprawnie ale ja nie sądzę, aby to wtedy chodziło na 4xxx. 
Być może potomek DLSSa 3 się przyda aby grać na ekranach 1000Hz+, np. do interpolacji z 200fps do 1000. Wtedy nie byłoby wad idących za trybem "migotania". 

Nawet DLSS2 czy natywne gry  z RT potrafią mieć wyraźne problemy w ruchu, ale większość osób Ci powie, że nie ma problemu bo przecież grają, widzą i wiedzą lepiej. ;)

No jak masz np. monitor na VA albo bez trybu "migotania" (BTW. fachowo nazywa się to "low persistence mode") to faktycznie nie zobaczysz pewnie wad DLSS3 bo i tak inny problem to przykryje.  (VA są za wolne nawet do czystego 60Hz, o 120 czy 200 nie mówiąc)

Oceniam, że jakieś 0,1% graczy dysponuje ekranami radzącymi sobie dobrze w ruchu (poziom bliski kineskopowcom) i wie jak się z tego korzysta, także pod tym postem na pewno będzie ze 20 osób, które będą ten post krytykować i wyśmiewać. 
Ale jak chcesz rzucić "sprawdzam" to polecam zbłębienie zagadnienia, zaczynając od tej strony: https://blurbusters.com/faq/motion-blur-reduction/

Na Digital Foundry masz filmiki o DLSS3, tylko zalecam nie słuchać co oni tam wygadują, bo na tematyce obrazu w ruchu to się nie znają kompletnie. Oni od strony technicznej ani od strony gracza i tego ile i co daje "żyleta" w ruchu.
Są jednak stopklatki gdzie widać co się dzieje w Spidermanie jak szybciej ruszysz myszką. I to niestety nawet jak gra chodzi w 120fps. 
 

Edytowane przez Ronson
  • Confused 2
  • Sad 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyważone podejście prawie zawsze jest najlepsze, chyba, że jesteś bardzo wyczulony/grasz zawodowo w określone tytuły.

W rzeczywistości, dla znakomitej większości DLSS3 może być korzystny w określonych sytuacjach/tytułach. Sam nie korzystam(nawet z DLSS2) i pewnie nigdy nie będę(posiadam odpowiedni sprzęt aby zobaczyć każdą ułomność tej technologii, choć uczciwie należy dodać, że obecna generacja jest już na tyle dobra, że jeśli świadomie nie szukasz to możesz zwyczajnie nie dostrzec różnicy[nie licząc mocniejszych przekłamań]), bo zaliczam się do tych "wyczulonych", ale dostrzegam zalety tej technologii.

W 0-1 rzeczywistości odpowiedź jest - tak pogorsza jakość obrazu, ale dla 99%(w ułamku z tego pozostałego procenta zawierają ludzie, którzy mają odpowiedni sprzęt i zwracają do tego stopnia uwagę, co opisał Ronson powyżej), graczy jest to bez większego znaczenia.

Zawsze najlepiej sprawdzić samemu, w grach, które Ciebie interesują. Kartę w najgorszym razie możesz zwrócić, a nawet jeśli ją sobie zostawisz - nikt Cię przecież nie zmusza do korzystania z DLSS2/DLSS3, możesz je wyłączyć. Pytanie, co wybrać - RTX 4070 czy 6950 nie ma jednoznacznej odpowiedzi(wydajność w rasterze vs lepszy upscaling + generator klatek); zależy od preferencji, a te jak to zwykle bywa są osobiste, więc zdecydować musisz sam.

 

Edytowane przez Mripper

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
51 minut temu, frisss napisał:

dziś pograłem w deliver as the moon DLSS na Quality sam byłem zaskoczony jak obraz sie rozmazał szczególnie jak sie przyjrzysz  detalom na stołach

Deliver Us the Moon ma bibliotekę sprzed 2 lat, można spróbować wrzucić nowszą DLSS Swapperem. W tej grze różnicę między DLSS on i off widać dość dobrze na odbiciach RTX

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z dlss na jakość bo tylko to ma sens nie bylem do końca zadowolony ale w połaczeniu z wyostrzaniem lumasharpen z reshade (moje ulubione) całkiem dobrze to wyglądało, poniżej trybu jakość już widać konkretny zjazd jakości, przynajmniej na dlss 2.0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, frisss napisał:

a myślałem ze steam sam aktualizuje gry

Steam ściąga aktualizacje, ale developerzy nie aktualizują gier :) Każda gra jest dostarczana z własną wersją bibliotek dlss i fg, jeśli dev ich nie zaktualizuje to takie już zostają.

Sprawdziłem tę grę wczoraj i nawet z najnowszą biblioteką obraz jest ostrzejszy w 4k bez DLSS a odbicia są dużo wyraźniejsze, ale za to pojawia się migotanie z którym AA w grze sobie słabo radzi. Więc efekt bywa +/-

 

11 godzin temu, Ronson napisał:

Potrzebujesz monitora na bardzo szybkiej matrycy z trybem "migotania podświetleniem" lub w OLEDach BFI, do tego musi ten tryb dobrze działać. Do tego content musi pasować, bo żebyś widział w szybkim ruchu wszystko, to musisz mieć albo 500fps/500Hz lub najlepiej 1000/1000, albo użyć migotania, co wymaga stałego framerate'u. Czyli nie 109 czy 130fps w 120Hz, a idealnie równo 120. 
Do tego musisz rozumieć zagadnienie, a większość tego warunku nie spełnia.
Do tego musisz porównać z obrazem ostrym w ruchu a nie jakimś TAA.

I wtedy na pytanie czy widać różnicę odpowiedź brzmi: Tak. DLSS3 wygląda tragicznie.

Inaczej mówiąc to genialna technologia, bo nikt tych wszystkich wymagań nie spełnia więc możemy sobie tego spokojnie używać  ?

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, someI napisał:

Inaczej mówiąc to genialna technologia, bo nikt tych wszystkich wymagań nie spełnia więc możemy sobie tego spokojnie używać  ?

Myślałem czy ten post zwinąć w spoiler, ale jakośtam z tematem DLSS 3 się łączy więc zostawiam. 



To jest jakbyś słyszał, że w takim razie auta są nikomu nie potrzebne, bo nikt nie potrafi obsługiwać skrzyni biegów i tak, więc pokonywanie dystansu konno też jest OK, a zresztą nikt, kto nie jechał autem i tak nie myśli o tym, ile by zyskał jakby mógł skrócić czas podróży 2-3x, więc nikomu to nie przeszkadza ;)

Z obrazem w ruchu sytuacja jest bardzo trudna, bo mózg płata nam (graczom) figla. Laik jest praktycznie bez szans na poprawną ocenę na ile czysty obraz w ruchu jest przydatny. No chyba, że akurat trafi na np. grę która spojnie trzyma tyle fps ile ma odświeżania na ekranie, gra nie ma psującego detale w ruchu TAA czy innej stratnej AA, a gra to taki gatunek, który  od razu pokaże różnicę jako przepaść (np. sidescroller jak Rayman Legends) i będzie siedział przy ekranie, który ma poprawnie pracujący tryb "migotania", a nie dodany do monitora, który i tak jest na to za wolny, albo jest OK, ale twórcy firmware'u zawalili sprawę. 


Wypiszę co może przeszkadzać:
- wymóg FPS=Hz, absolutnie obowiązkowo. Nie zadziała nawet 240fps na 480Hz, o 60fps na 120Hz nie wspominając
- odpowiedni ekran, odpowiednia implementacja "migotania"
- nietestowanie w mocno nasłonecznionym pokoju, bo strata jasności zostanie uznana za kompromis nie do zaakceptowania. 
- wiedza o tym, że sterowanie kamerą za pomocą myszy jest ułomne od czasu gdy niemal 20 lat temu zmieniono styl pracy myszy. Dziś potrzebujesz USB z polling rate 8000Hz, a takich myszek są aż dwa modele i to od jednej marki. Bez tego zostaje pad, albo część z zalet "migotania" ucieka, bo obraz i tak jest niepoprawny w ruchu. 
- wiedza o tym, żeby wyłączyć motion blur w grze, i TAA jeśli to możliwe (w niektórych grach się nie da, choć można ratować się tym co tutaj doradzą: https://www.reddit.com/r/FuckTAA/ (od razu mówię, że to nie jest forum osób znających dobrze temat w ruchu więc zdarzają się osoby gadające głupoty. Tego reddita używać radzę tylko do zdobycia metod wyłączania TAA w danej grze lub do sprawdzenia czy faktycznie TAA jest już tak dopracowane, że nie pogarsza obrazu (spoiler: pogarsza i to się nigdy nie zmieni)
- wiedza o tym, że w monitorze lub TV czasem trzeba ten tryb migotania włączyć, a w załączonym g-sync ta opcja się deaktywuje
- odpowiedni content. Jak gra jest monotonna, to różnica wyda się mała. Gra z żywymi kolorami, różnymi elementami różnego koloru i kontrastu, będzie miała co tracić w ruchu. Gra która ma skopany kod i "wbudowany" stutter w kontroli kamery, raczej się nie nada ;) 


- przydałaby się jeszcze wiedza jak omijać wady obecnych LCDików, bo czasem musisz wybrać czy chcesz mieć żyletę na górnych 2/3 czy dolnych 2/3 monitora, a to można sobie ustawić, jeśli monitor pozwala na regulację tzw. Strobe Phase
Brzmi jak coś trudnego, ale to tylko suwak:
7d8702df00aca9da85f49a89629c5a29.png


Dalej dochodzą bardzo duże trudności wynikające z tego jak działa ludzka psychika. Ktoś, kto się zakochał w HDR odrzuci "migotanie" zanim zrozumie jak dużo to daje. Niestety nie ma wyświetlacza który radzi sobie z ruchem przy jasności pozwalającej na jakikolwiek HDR. TV OLED cośtam mogą próbować jak jasny element jest mały w stosunku do całego ekranu, ale jeśli wyłączasz obraz na większość czasu, to oczywiste jest, że postrzegalna jasność istotnie spadnie. Jedyna alternatywa to 500fps na 500Hz, aby mieć obraz używalny, 1000 dla jakości powyżej 720p i 2000Hz jak ktośby chciał zachować zalety 4K w nawet najszybszym ruchu przy graniu z bliska na dużym np. 1.5m od 50"  TV. 

Jest jeszcze masa pułapek psychologicznych, przez które nawet jak posadzisz kogoś do dobrego wyświetlacza i mu pokażesz jak wygląda obraz w ruchu gdy nie jest rozmyty, to i tak taka osoba ma szasnę uznać, że "ee, nie robi mi to różnicy". Ale jak tą samą osobę posadziłbyś na przeciwko dwóch monitorów i poprowadził ekseperyment poprawnie, kierując tą osobę w kwestii na co ma zwracać uwagę, ale przede wszystkim omijając największą psychologiczną pułapkę (czyli to, że mamy tendencje do podświadomego zapominania co tracimy już po minucie, dlatego jedynie ocena "natychmiast" może mieć sens, dopóki dana osoba nie zrozumie, że zalety obrazu w ruchu są kolosalne) - otrzymałoby się inną opinię, co potwierdziłem wiele razy przekonując niedowiarków takim właśnie eksperymentem/pokazem na żywo. 
Nawet ja po dekadzie trąbienia na forach o tym, jakie to ważne, nie jestem na tą pułapkę odporny. Wystarczyło kilka dni grania bez migotania i zacząłem myśleć, że samo 120Hz bez migotania nie jest takie niegrywalne i od biedy można tak grać w ścigałkę, w którą akurat grałem. Potem kolega oddał mi mój monitor i... JAK ZAWSZE, wielka niespodzianka ile obraz zyskał. A to ja - ktoś kto o tej pułapce ostrzegał od lat. To co ma zrobić laik, który jest nieświadomy, że tak działa mózg. Podczas grania często "żyleta w ruchu" poprawi jakość doznań bardzo, ale w grze się skupisz na grze, nie na analizowaniu w każdej sekundzie jak bardzo odmienny jest poziom radośći z gry gdzięki wyraźnemu obrazowi w ruchu. No chyba, że masz ksywkę Ronson i tematyka cię interesuje od ponad 20 lat. :D
Za to zalety obrazu w bezruchu widać natychmiast i zapamiętywane są one znacznie lepiej. Do tego niektórzy się przyzwyczaili, że nic nie widać dopóki nie zatrzymasz ruchu kamery, więc grają bez używania ludzkiej umiejętności śledzenia obiektu w ruchu. Do tego jeszcze występuje "efekt stroboskopu" więc jak będziesz patrzył w jeden punkt na monitorze i zaczniesz obracać kamerą dookoła, to nie zobaczysz żadnej poprawy a za to bez rozmycia uwydatni się to, że obraz jest zrobiony z kilkudziesięciu czy kilkuset klatek. Ale wystarczy, że uchwycisz wzrokiem element w tle i zobaczysz wszytkie detale. Tak samo jak w rzeczywistości jak patrzysz na wolno kręcące się koło. Jak patrzysz z boku w jego środek, to zobaczysz oponę jako rozmycie. Ale jak zaczniesz śledzić wzrokiem zgodnie z ruchem koła, to zobaczysz dokładnie bierznik opony i będziesz go ostro widział tak długo jak wzrok "trzyma" śledzony obiekt. Widziałem osoby, które testowały tą kwestię wlepiając gały w środek ekranu i machając myszką,  po czym stwierdzały "jest jeszcze gorzej, bez sensu" :szczerbaty:


Temat jest więc skomplikowany, ale nie musi taki być, to raz (kiedyś nie był. Właczałeś grę na PS2 w 50Hz i miałeś TV 50Hz = widziałeś żyletę od razu) a dwa, że podkreślam różnicę między "0,1% graczy się tym cieszy" a "0,1% graczom robi to różnicę".
Graczy którym to zrobi ogromną różnicę jest 100%. No przynajmniej 100% spośród osób z normalnymi oczami. Niektórzy z racji wrodzonego defektu lub starości, nie potrafią śledzić niczego w ruchu, bo nawet w realu ich gałki oczne będą poruszać się skokowo przy takiej próbie, i po prostu nie dają rady.  A jak w realu nie dają rady to i na monitorze. 

Na koniec tylko dam przykłady jak to zmienia sytujację:


Rayman Legends: (side scroller) 3/10 Nuda po 3 minutach grania. Z żyletą w ruchu 9/10, przeszedłem 2x całą grę. Eksperyment powtórzyłem 3x w różne dni. Zawsze po wyłączeniu migotania odechciewa mi się grać po kilku minutach lub sekundach


platformówki 3D. Była taka, którą przeszedłem na monitorze bez migotania. 4/10. Zmuszałem się do grania. Nuuuda. Po skończeniu dostałem akurat monitor z tą funkcją, więc z ciekawości odpaliłem grę żeby zobaczyć jak zmienia się odbiór i ten test przeciągnął się na kilka godzin. Grę skończyłem ponownie jeszcze tego samego dnia, a tym razem zabawę bym ocenił na 8/10. Różnica wynikała nie tylko z tego, że ogólnie fajniej wszystko wyglądało, ale rozpierdziel bawił bardziej bo widać było każdą śrubkę i każdy pocisk w chaosie walki, animacje wyglądały 10x ciekawiej, ale przede wszystkim mogłem biegnąc do przodu, wywijać kamerą aby szukać "Znajdziek" i secretów, a do tego zapoznawać swój umysł z wyglądem świata w grze. Dzięki temu mogłem się 100x lepiej cieszyć tym jak ten świat wyglądał i znacznie poprawiła się imersja. 

No ale jakbym test przeprowadził na grze typu tradycyjne Szachy.. 
to pewnie bym takich obserwacji nie dokonał. ;)
A co do platformówek to widziałem yoputuberów dających grze 3/10 bo gra jest "nudna". No shit, Sherlock. ;) Jak ktoś zabierze jej główną zaletę, czyli cieszenie się bieganiem bez wyraźnego celu i cieszeniem się światem dookoła, to szukanie znajdziek jest nudne i nic dziwnego, że potem cała gra wydaje się nudna. Szczególnie, gdy platformówka jest zaprojektowana jaka platformówka, więc fabuła i przeciwnicy są tylko drobnym, nieistotnym szczegółem. Tak jak w strategii nie powinno się dawać wybitnej grze 2/10 bo "żarty w fabule były mało śmieszne". Bo nie o to w tym gatunku chodzi. 

Podobnie z grami vs. obraz w ruchu. Są takie, gdzie to będzie ważnejsze i takie, gdzie mniej.


Temat jest skomplikowany, ale serio polecam się z nim zmierzyć, bo granie z rozmytym obrazem w ruchu to jest cofanie się do ery jaskiniowców. Jak ktoś nie chce się bawić, ustawiać, wybierać sprzęt, uczyć, to niech se kupi Oculus Questa 2 i pogra. W VR low persistence (migotanie) to podstawa i choć nie każdy headset się dobrze wywiązuje z zadania, to akurat Q2 radzi sobie świetnie i nawet w trybie standalone można się przekonać o magii idącej za czystem obrazem w ruchu.
Magii, po której odjęciu przestało działać wiele gatunków gier, przez co zostały zdelegowane do roli niskobudżetowych popierdółek robionych przez kiepskie studia. Tym bardziej więc polecam fanom gatunków, które królowały w latach 90tych. 

Edytowane przez Ronson
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeoczyłeś zdanie na samym początku tego wątku:

W dniu 18.04.2023 o 22:51, crux napisał:

A teraz najważniejsze: Proszę o odpowiedź przede wszystkim posiadaczy RTX 40X0 a nie teoretyków zapoznanych z opowieściami z mchu i paproci, powtarzającymi za kolegami, youtubem albo pamiętającymi DLSS1

 

22 minuty temu, Ronson napisał:

W VR low persistence (migotanie) to podstawa i choć nie każdy headset się dobrze wywiązuje z zadania, to akurat Q2 radzi sobie świetnie i nawet w trybie standalone można się przekonać o magii idącej za czystem obrazem w ruchu.

VR od lat używa technik reprojekcji zbliżonych do tego co robi DLSS3, tylko jeszcze gorszej jakości. Najszybszy migoczący ekran niewiele pomoże, jeśli brakuje FPS. 

Edytowane przez someI
  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Polecam stosowanie DLSSQ + FG, przynajmniej na OLEDzie. Z dających rozmazany obraz w czasie obrotu natywnych 60 fps możesz uzyskać 120 fps dające ostry i gładki w czasie obrotu kamery. Ewentualne artefakty przy 120 fps mniej przeszkadzają niż nie dość gładki obraz w czasie obrotu kamery przy 60 fps.

Przy DLSS może ewentualnie przeszkadzać utrata szczegółów przy odległych wąskich obiektach w stylu iglicy na maszcie antenowym czy jakichś odległych siatkach ogrodzeniowych.

 

Jeśli chodzi o wybór między AMD a nVidią.

Na RTX 40xx FG już masz natomiast od AMD może dostaniesz a może nie. Ja bym nie ryzykował. Dla mnie FG to technologia przełomowa i obowiązkowa przy RT i PT, szczególnie w 4k.

 

Edytowane przez tgolik
  • Like 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, someI napisał:

Przeoczyłeś zdanie na samym początku tego wątku:

VR od lat używa technik reprojekcji zbliżonych do tego co robi DLSS3, tylko jeszcze gorszej jakości. 

Wpis autora mówił o teoriach z sufitu. A ja wpisałem coś co jest realne, weryfikowalne, co ma związek z DLSS3, który to niestety jakość obrazu w ruchu pogarsza. Obiektywnie. To nie teoria, to fakt, i chyba dość istotny dla kogoś, kto pyta o wady tej technologii.
Co do VR to jasne, ale nie każda gra wykorzystuje reprojekcję i możesz pograć z PC bez niej, jeśli komp daje radę. Na sam koniec - reprojekcja pozycji głowy jest często idealna i 120fps robione z 60fps nie będzie miało takich artefaktów jak DLSS3. Ruchem głowy więc można sprawdzić jak wygląda dobry obraz w ruchu nawet w VR w grze używającej reprojekcji. Każdy inny ruch np. obiektów przesuwających się w wirtualnej przestrzeni, będzie narażony na wady reprojekcji, oczywiście. Nawet w niektórych grach będzie to widać przy ruchach kamery przy użyciu gałki pada, a nie głowy (bo tutaj będzie OK)
Ale masz rację, że powinienem był o tym wspomnieć. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki wszystkim za komentarze. Dużo mi wyjaśniły. @Ronson, przeczytałem Twoje oczywiście również i niestety biję się w pierś, poległem. Nie dostrzegam (chyba na szczęście dla mojego portfela) rzeczy o których piszesz. Mam monitor VA, który jak rozumiem sprawy nie ułatwia albo wręcz przeciwnie, jest dla mnie na plus (znowu ten portfel). Zresztą przed jego zakupem znałem wady w postaci smużenia VA (przykład ufo), ale… znowu nic nie widzę na moim sprzęcie w porównaniu do poprzedniego IPS. Zapewne gdybym miał dwa obok siebie włączone to była by różnica a tak jestem zadowolony z zakupu.

Obejrzałem również materiał Digital Foundry odnośnie DLSS3. No cóż, faktycznie np. w Hitman 3 były artefakty, nawet widoczne, ale w trybie Performance. Były przykłady ze Spider Man’a gdy klatka pośrednia generowana przez AI (Frame Generator) była generowana a artefaktami – wyraźnie widocznymi w … stopklatce. Puszczenie obrazu w ruch sprawiało, że efekt był już kompletnie niewidoczny a starałem się go dostrzec. Podali przykład w Cyberpunk gdy gra w natywnym trybie w 60 fps generuje artefakt na teksturach taki sam jak przy DLSS3, ale który jest eliminowany przy grze również w natywnym trybie, ale w 120 fps. Zanim jednak zrobili zbliżenie na tą konkretną teksturę to niczego nie zauważyłem. A przy okazji jaka karta generuje 120 fps w Cyberpunk bez wsparcia, bez cięcia detali w 4k? Jeszcze takiej nie wyprodukowali. Było też parę innych przykładów wymagających jednak wiedzy czego i gdzie szukać a najlepiej stopklatki.

Podsumowując, akceptuję DLSS3 tj. DLSS2 + FG bez uwag. Nie jestem purystą jakości i doskonałości. Na moim poziomie nazwijmy to spostrzegawczości a bardziej chęci po prostu zabawy a nie szukanie niedoskonałości (dobrze, że żonę wybierałem w ten sam sposób ;) ) nie mogę przyznać, że to wadliwa nieużyteczna technologia. Już bardziej pieściłem się z wyborem mojego roweru, ale w jego cenie miałbym teraz trzy 4090 ;)

Spójrzmy jednak na to wszystko nieco inaczej a więc na wymagania i wyniki aktualnych gier w trybie natywnym w 1440p (2560x1440), ale w rozdzielczości 3440x1440 (21:9) gdyż taka mnie interesuje. Jest to mniej więcej wynik testów gier w 1440p a otrzymane klatki należ podzielić przez 1,28. Wyszło mi to z różnic w generowaniu ilości klatek 4k vs 2k biorąc pod uwagę rzeczywistą ilość pikseli a więc 2-krotny wzrost pikseli nie oznacza 2-krotnego wzrostu wymagań lecz gdzieś o ok. 80-85% w zależności od karty. Rzeczywista ilość pikseli w 3440x1440 vs 2560x1440 jest o 34% wyższa.

I tak na podstawie testu RTX 4070 z PPC dla gier bez RT w 1440p dla 4070 / 6900 XT wyniki są jak niżej, podzieliłem je przez ww. 1,28 aby mniej więcej uzyskać oczekiwany fps w 3440x1440. Dodatkowo aby porównanie było lepsze (obarczone na pewno jakimś błędem), podniosłem wynik dla 6900XT o 6% aby osiągnąć mniej więcej wydajność 6950XT. Mam nadzieję, że nie jest to zbyt karkołomne na forumowe rozważania. Niestety PPC nie testuje gier w 3440x1440. Oczywiście nie mam również jak PPC procesora i9 13900K więc u mnie wyniki będą pewnie ok. 10% niższe w zależności od gry. Mam 5700X z PBO do 5800X z UV.

RTX 4070 vs RX 6950 XT w 3440x1440 bez RT:

Cyberpunk – 52 vs 58

God of War – 56 vs 66

Hogwarts Legacy – 63 vs 69

Red Dead Redemption 2 – 43 vs 51

Callisto Protocol – 58 vs 65

Wiedźmin 3 – 63 vs 64

Jak od powyższych wyników odejmiemy 10% na różnicę w procesorze i ramie to żadna z kart nie osiąga w każdej z gier 60 fps w 3440x1440 z ustawieniami na max. Celowo wybrałem gry o wysokich wymaganiach. I to wszystko bez RT! Wniosek? Obie karty tj. RTX 4070 oraz RX 6950 XT są za słabe do aktualnych gier w ww. rozdzielczości aby wygenerować 60 fps. Jaka karta aktualnie wystarczy na podstawie testu z PPC i moich rozważań do 60 fps? Tylko czołowe pięć a więc 4070 Ti, 4080, 4090 oraz 7900 XT, 7900 XTX.

I tu wkracza DLSS3 oraz FSR2 a w przyszłości FSR3. Jak wynika z moich dotychczasowych rozważań to jedyne rozwiązanie aby pograć w co najmniej 60 fps we wszystkie aktualnie dostępne gry na 4070 / 6950 XT. A skoro już musimy włączyć wspomaganie to i RT łykniemy, ale już tylko na 4070. Wyniki dla Cyberpunk na 4070 DLSS2 / 6950 XT FSR2 (przeliczone na 3440x1440): 48 vs 31. Dla DLSS3 wyniki na 4070 rośnie do … 73 fps.

Wniosek końcowy: Niestety nie widzę sensu zakupu 6950 XT nawet w cenie 3k. Lepszym wyjściem jest 4070 pomimo mniejszej ilości pamięci. Uważam, że wkrótce doczekamy się gier, których nie odpalimy na rozsądnych ustawieniach bez wsparcia AI i innych metod.

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No cóż. Jak masz VA to nie bardzo rozumiem jak chciałeś próbować dostrzec wady DLSS3.
W ogóle ocenianie ruchu na filmmiku YT to jakieś nieporozumienie, ale mniejsza z tym.

Co do tego co mówi DF to uczulałem. Oni pierdzielą takie bzdury w tym temacie, że uszy więdną. Nie ma czegoś takiego, że "widać tylko na stopklatce" jak sprawdzasz na ekranie, który potrafi wyświetlić obraz w pełni ostry w szybkim ruchu. 


Dalej to już jest temat w pełni zawierający się w częśći mojego posta wyżej, w której wyjaśniałem jak łatwo wpaść w pułapkę.
Ja nie jestem żadnym "purystom". Nie gram w jakieś "specjalne" gry.  Jedyna różnica między mną a większością graczy jest taka, że ja znam te pułapki i z racji fascynacji zagadnieniem i poświęcenia na jego "badanie" dziesiątek godzin przez ostatnie 20 lat, po prostu wiem, że nie ma co sobie wierzyć jeśli chodzi o opinie typu "nie odczuwam wady", "nie przeszkadza mi to" itp.
Chyba, że się tą opinię wymawia siedząc przed dwoma ekranami i mając poprawne porównanie pomiędzy jednym a drugim, żeby po prostu zablokować tą psychologiczną pułapkę polegającą na tym, że mózg grając na monitorze "rozmywającym" nie pamięta co traci. A potrafi "zapominać" naprawdę zaskakująco, szokująco szybko. 
Za każdym jednak razem jak wracasz wzrokiem na ten z wyraźnym obrazem jest "no kurde, faktycznie, dużo lepiej". 
I niestety nie jest tak, że wystarczy nie wiedzieć co się traci, żeby strata nie istniała. Nadal tam jest. Tylko o niej nie będziesz wiedział. Ot, po prostu będziesz się grą szybciej nudził, nie będziesz miał jak poznać niektórych gatunków, bo jak będziesz próbował to zawsze się będzie kończyć na "Eee. to nie dla mnie. Nie bawi mnie to", tak jak gość co gra na myszce za 9zł i podkładce 10x10cm, w 20-50fps, nie ma szans ocenić czy gatunki typu "strzelanka do wyżycia się" czyli Serious Samy, Painkiller czy Doom Eternal. 
Póki co sytuacja jest tragiczna, większosć gier na konsolach nie ma czystego obrazu w ruchu, więc żaden ekran nie wyświetli tego jak należy. Czasem nie można nawet wyłączyć motion bluru, a na PC wiele gie nie pozwala wyłączać TAA. Z RT jest też porażka, bo bez DLSS i TAA to nawet na 4090 w 1440p nie wiem czy jest choć kikla gier trzymających 120fps, a z migotaniem to najlepiej w 120Hz grać, bo im mniej tym te migotanie bardziej się odczuwa, a poniżej pewnej granicy, nawet widzi (w 60Hz migotanie widzi każdy, w 100Hz już niewielu. W 120Hz jakiś ułamek promila, ale są i tacy. 


Co do "lepsze rozmyte 60fps niż mniej niż 60" to jest to pytanie czy chcesz mieć obraz w ruchu lepszy kosztem obrazu statycznego czy lepszy statyczny kosztem tego w ruchu. 
Zawsze można zjechać z rozdziałką czy detalami pierdół (osobiście tylko nie toleruję cięcia w geometrii czy wyraźnego pogorszenia wszystkich tekstur)
Dlatego to, że 4090 nie zamknie 60 w 4K ultra, nie znaczy, że trzeba tak zostawić. Już pomijam RT, które dla niektórych może być ważne, choć dla mnie jest warte równe NIC i tak zostanie jeszcze kilka generacji GPU, ale jeszcze poza wyłączeniem RT można zjeżdżać z detalami bez drastycznej straty na jakości. Osobiście wolałbym grać w 720p z wyraźnym ruchem zamiast 8K z rozmytym, ale rozdzielczość to nie jedyna opcja. Można pociąć jakość cieni, jakieś zbyt wysokiej jakości filtry postprocess itp. Ten syf własnie najwięcej obciąża karty, choć niewiele daje. Dlatego wolałbym stałe 60fps z np. volumetrics ustawionymi na low, bo wyraźny i irytujący banding w mgłach i sorry za brak polskiej nazwy, ale jej nie znam - light shafts, jest mniejszym kompromisem niż męczenie się w 40fps.

PS. IPS nie oznacza od razu, że dany monitor sobie radzi w UFOteście.
Radzi - dajesz test Moving Photo. ustawiasz prędkość 1920 pixels per second. 
Ja w tym teście widzę praktycznie to samo co gdy obraz stoi w miejscu. 
Na takim monitorze wyłączenie TAA w grze, często jest jak przejście z 480p do 1080p. 
Jak z ruskiego telewizora z lat 70tych do współczesnego. 
Przeszedłem pół gry w 2022r z TAA, bo nie znalazłem opcji wyłączenia tego w menu ani zmianą w plikach konfiguracyjnych. Ale miałem przerwę, więc jak wracałem to wygooglowałem czy jest mod na wywalenie TAA.
Tym razem był.
Wrzuciłem..

Zupełnie inna gra. Inna przyjemność z grania. Nareszcie normalność. Nie było TAA, ale nawet na moim starociu dało radę ustawić DSR z 4:1 przy pełnej płynności, a gra nie miała połowy assetów zrobionych pod TAA, więc nie było żadnych "dziur" jak to bywa, gdy programista gry ustawia rendering np. włosów czy cieni lub odbić SSR na "co 3 piksel bo i tak TAA to rozmyje". 
Gra już bez DSRa, z "surowymi pikselami" bez AA wyglądała dużo lepiej bo teraz wszystko już widać w ruchu. Z DSRem to wersja z TAA wyglądała przy tej jak ubogi port na Nintendo Switcha :D

 

Edytowane przez Ronson
  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, Ronson napisał:

No cóż. Jak masz VA to nie bardzo rozumiem jak chciałeś próbować dostrzec wady DLSS3. 
W ogóle ocenianie ruchu na filmmiku YT to jakieś nieporozumienie, ale mniejsza z tym.

 

9 godzin temu, Ronson napisał:

PS. IPS nie oznacza od razu, że dany monitor sobie radzi w UFOteście.
Radzi - dajesz test Moving Photo. ustawiasz prędkość 1920 pixels per second. 
Ja w tym teście widzę praktycznie to samo co gdy obraz stoi w miejscu. 

Jaki masz monitor? Wychodzi na to, że ja nie mając porównania, ale za to ograniczony budżet gdyż wiedziałem, że chcąc wydać do 2000 PLN to muszę zdecydować się na VA biorąc pod uwagę pozostałe wymogi a więc 21:9 3440x1440 z 144 Hz i zakrzywieniem. Ten monitor to sprzęt do pracy przede wszystkim (pakiet Office) i jestem nim zachwycony a gry to dodatek. Oczywiście u mnie przy 1920 ufo nie jest wyraźne, ale znowu w grach FPP/TPP nie dostrzegam żadnych wad swojej matrycy. Zapewne nie mając porównania. Najtańszy IPS spełniający moje wcześniej wymienione wymogi to budżet x2. I oczywiście jasne, youtube ma kompresję, nie mam wątpliwości. Jednak jak już zdecyduję się na któregoś RTX to na pewno napiszę swoje wrażenia w tym temacie. Jeszcze jednak nie zdecydowałem który. 

 

9 godzin temu, Ronson napisał:

Zawsze można zjechać z rozdziałką czy detalami pierdół (osobiście tylko nie toleruję cięcia w geometrii czy wyraźnego pogorszenia wszystkich tekstur)
Dlatego to, że 4090 nie zamknie 60 w 4K ultra, nie znaczy, że trzeba tak zostawić. Już pomijam RT, które dla niektórych może być ważne, choć dla mnie jest warte równe NIC i tak zostanie jeszcze kilka generacji GPU, ale jeszcze poza wyłączeniem RT można zjeżdżać z detalami bez drastycznej straty na jakości. Osobiście wolałbym grać w 720p z wyraźnym ruchem zamiast 8K z rozmytym, ale rozdzielczość to nie jedyna opcja. Można pociąć jakość cieni, jakieś zbyt wysokiej jakości filtry postprocess itp. Ten syf własnie najwięcej obciąża karty, choć niewiele daje. Dlatego wolałbym stałe 60fps z np. volumetrics ustawionymi na low, bo wyraźny i irytujący banding w mgłach i sorry za brak polskiej nazwy, ale jej nie znam - light shafts, jest mniejszym kompromisem niż męczenie się w 40fps.

Mi się bardzo podoba efekt RT, lubię już od 25 lat włączyć gry na max a nie ciąć detale, nieuleczalne ;) 

I tak podsumowując nasze dywagacje, cieszę się, że pakuję budżet w inne rzeczy nie dostrzegając (nie na siłę oczywiście) wad niektórych rozwiązań w graniu i które są dla mnie uzasadnione o wiele bardziej a więc znowu ten sport - jest sporo droższy od właśnie grania na PC :D 

 

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DLSS będzie się rozwijało tak jak FG. Obecnie mamy DLSS 3, które jak porównamy do pierwszego wydania to jest dzień do nocy. FG to "nowość" ale będzie tak samo jak z DLSS. Mając do wyboru karty gdzie w jednej jest ta technologia a w drugiej nie ma to dla mnie wybór jest prosty. Podobnie z RT. Co najważniejsze. Nie muszę tego włączać jak nie chcę. Ale mogę. Kolejna sprawa to mam jeszcze do wyboru FSR. Więc jedna karta od Nvidii załatwia wszystkie tematy. Nie wiem jak będzie z FSR3 ale w sumie nie ma to dla mnie znaczenia mając zawsze do wyboru DLSS.

Co kto widzi to kwestia indywidualna. Jeden zobaczy artefakty i będą to rzeczy dla niego nieakceptowalne a drugi zobaczy je ale stwierdzi, że jest całkiem OK. Ja się zaliczam do tego drugiego grona. Podobnie podchodzę z suwakami w grafice. Nie muszę mieć wszystkiego na maxa w prawo.

  • Like 3
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Artyści graficy, amatorzy fotografii będą z racji swojego hobby uczuleni na nierealistyczne światło, i dla nich pewnie obraz bez RT wygląda tragicznie i RT będzie warte każdego kompromisu, co widać po opiniach zwolenników RT. Tacy ludzie są po prostu skazani na DLSS 2 i 3 i cóś. Mogę im tylko współczuć, bo na pewno ich nie przekonam, a raz wyrobionego sobie "uczulenia" się już nie pozbędą. 
 

@crux
Jak monitor głównie do pracy, nie do gier, to nie pomogę, bo mnie ta strona monitorów kompletnie nie interesuje, ale LCD to zawsze kompromis. Jak ktoś chce monitor dobry do prac graficznych i do gier to mu od lat polecę... dwa monitory i "tasowanie" ich w miarę potrzeb jak nie ma miejsca na biurku (można kupić wysięgniki/ramienia/uchwyty do monitorów)
No niestety. Albo albo. Żaden monitor radzący sobie w ruchu nie będzie się choćby zbliżał do jasności i kontrastu matryc VA. Do końca roku może wyjdzie OLED 240Hz z BFI, ale też nie wiadomo czy to się nada do obu rzeczy, bo OLED burn-in i prace graficzne.. 

 

Cytat

 lubię już od 25 lat włączyć gry na max a nie ciąć detale, nieuleczalne

 


Dla mnie włączenie RT to cięcie detali, bo na natywną + 120fps z RT to poczekamy do 2030, o ile w ogóle gry z RT nie będą niosły ze sobą wymogu pożegnania jakości obrazu w ruchu, bo różnie może być w technologii, która w swojej naturze opiera się bardzo na analizowaniu poprzedniej klatki, a 99,9999% developerów będzie zasięgać porad artystów w swoim studio, którzy raczej grania bez rozmycia to nie widzieli nigdy albo od 20 lat i zapomnieli, więc mam obawy czy w ogóle się da. Wyjdzie gra tylko z RT lub PT, bez opcji przełączenia na raster i może się po prostu nie dać. Dziś już jest problem z TAA.  W wielu  grach się tego wyłączyć nie da nawet modem, albo jak się da, to wychodzi taka sieka, że się człowiekowi przypominają czasy grania na Pentium 75 w pierwsze gry 3D w 320x240 i 256c. 
Co do uzależnienia od "suwaków na max w prawo" to 25 lat temu - rozumiem. Wtedy to robiło różnicę. Ale ja się z tego wyleczyłem bardzo szybko w latach 2005-2010.
Pamiętam jak ludzie pisali, że na niezłej karcie mają problemy z Colin McRae DIRT i dlatego kupują jeszcze szybszą kartę, a ja na karcie wartej wtedy ze 300zł miałem to samo co oni, tylko jakość kilku cieni i jakiś filtr wyłączyłem. Gra nie straciła praktycznie nic, a FPS skoczył jakieś 2x :D 
inna gra
 suwaki na prawo: 71fps
wyłączenie tylko HDR, które i tak dawało głównie durne bloomy i przepalenia wtedy: 90fps
Burnout Paradise
suwaki na prawo: 40fps
wyłączenie HBAO czy innego AO: 70fps
inna gra
suwaki na prawo: 80fps
przełączenie cieni i postprocessu z ultra na medium gdzie cienie nie wyglądały wcale gorzej, a bez postprocessu na ultra to nawet gra wyglądała lepiej, bo miała fajniejszy, żywszy obraz bez sraczkowatego filtra: 140fps

Kilka razy taki lek i się wyleczyłem ;)

Za to uczulony jestem na pop-in geometrii. Porty gier na PC, gdzie tego nie można ustawić wyżej niż na konsolach, albo porty jak Uncharted 4, gdzie pop-in jest nawet miejscami GORSZY niż na PS5 to zbrodnia. Tego suwaka nie ruszam nigdy, albo w ostateczności, ale wtedy rozważam czy po prostu nie odstawić gry i nie poczekać za lepszym sprzętem (zazwyczaj tu chodzi jednak o proca, nie kartę)

Edytowane przez Ronson
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakie znaczenie mają wyciągnięte przez ciebie wnioski? Graficy i fotografowie to pewnie jakiś promil wszystkich graczy, którzy korzystają z RT.

Edytowane przez SebastianFM
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cześć,

Wracam z aktualizacją tematu przewodniego a więc: Czy wykorzystanie DLSS3 z Frame Generator pogarsza jakość gier? 

Kupiłem zgodnie z planem RTX 4070, padło na MSI Ventus 3X. Dwa słowa o samej karcie. Bardzo estetycznie wykonana, 3 wentylatory, lekka więc nie ugina się w slocie i nie wymaga podpierania. Najważniejsze czy jest cicha? Mam w kompie 8 wentylatorów a więc procesor, zasilacz, 3 w obudowie (dla wszystkich poza zasilaczem ustawiłem ręcznie krzywą) i 3 teraz na karcie. Mój komp jest niesłyszalny (stoi pod biurkiem) nawet podczas grania bez ograniczania fps - mowa o hałasie wentylatorów a więc przy karcie pracującej na 100%. Muszę zajrzeć pod biurko aby wiedzieć, że komputer w ogóle działa. Cewki przy ok. 100 fps bardzo lekko słychać a gram z głośnikami, głównie nocą więc nie podkręcam ich specjalnie głośno. W skrócie cewki nie przeszkadzają, przy 500 fps mogłyby przeszkadzać, wtedy je zauważalnie słychać jak jest cisza. Chyba nie ma lepszej rekomendacji gdyż to na ciszy zależało mi przede wszystkim. Gratisowe Diablo IV to wisienka na torcie, karta więc wyszła mnie 2570 PLN gdyż Diablo planowałem kupić a nawet kupiłem (wycofałem preorder po zakupie karty). Karty nie podkręcałem ani nie robiłem UV z braku czasu, zabiorę się za to wkrótce ;)

A teraz sprawa DLSS 3 (DLSS 2 + Frame Generator). Tak jak się spodziewałem, nie widać jakiegokolwiek "wspomagania" w grach (testowałem Cyberpunk 2077 oraz Wiedźmin 3). Warunkiem jest jednak wyjście z bazowych (z lub bez DLLS 2) ok. 40 fps aby efekt FG nie był widoczny co ostatecznie z FG daje 65-70 fps. Wartość bazowa 40 fps więc jest zgodna z komentarzem kogoś na tym forum, nie pamiętam kogo. Jeżeli wiec mamy bez FG >40 fps to możemy liczyć na znaczące przyspieszenie bez negatywnych efektów. Jak na tej karcie działa Cyberpunk 2077 z DLSS3? W rozdzielczości 3440x1440 z wszystkim co tylko można włączyć (z RT ale bez PT) nie widziałem aby klatki spadały <65 FPS. Jest zajebiście dobrze. Włączenie PT sprawia, że z DLSS3 robi się ok. 45 fps, wyjściowo nieco ponad 20 fps a więc zgodnie z tym co wyżej pisałem, FG doskonale widać, jest w miarę płynnie, ale nie do końca , trudno to opisać - nie da się grać. Przejście w DLSS2 z Quality na Wydajność robi już z FG >60 fps i jest bardzo dobrze, wyjściowo ok. 40 fps. Grać pewnie będę bez PT, ale to jeszcze zobaczę :) 

Podsumowując: Jestem BARDZO zadowolony z zakupu. Mój komp jest już kompletny i mam spokój na jakiś czas :)

 

 

Edytowane przez crux
Literówka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Ciekawy filozoficzny post, ja to odbieram inaczej - 9800X3D potrafi być 30% szybszy od 7800X3D i to przyrost w 18 miesięcy. Jeżeli upgrade dokonujesz w tej samych "widełkach" wydajnościowych zmieniajac starsze i5 na nowsze i5 to przyrost potrafi być przez 2 lata mniejszy niż nawet 5% za to energetycznie bywa że jest 30% lepiej, ostatecznie jest to jakaś ewolucja - pamiętaj że rozwój technologii jest iteratywny i polega na małych przyrostach które ostatecznie składają się na coś wielkiego ale ostatecznie masz rację - i7-2600 do dzisiaj może stanowić podstawę użytecznego komputera biurowego, skylake posłuszy pewnie i do 2030 w takich celach. Rasteryzacja w kartach graficznych faktycznie stoi nieco w miejscu, nVidia próbuje zrewolucjonizować rynek vendorlockowymi technikami jak swoje DLSSy, ostatecznie doprowadzi to do stagnacji gdzie bez zamydlonego ekranu nie pogramy w 4K, silniki graficzne też nie rozwijają się w oczekiwanym tempie - unity rozpadło się przez kiepski zarząd, unreal engine 5 to król mikroopóźnień, od zakończenia akceleracji sprzętowej dźwięku w windows vista (okolice 2007) nie było w audio żadnej rewolucji a wręcz ewolucji - id Tech to do dzisiaj jedyny engine który potrafi wyrysować łuk a nie koła z nakładanych trójkątów... Także sygnałów że branża kuleje nigdy nie brakowało - grunt to realizować swoje cele i jak tak jak ja od lat 2000 celujesz w średnią półkę cenową - szukać takich upgrade które faktycznie coś dają no i mieć świadomość że rtx 5090 to będzie 600w potwór z gddr7 i ceną na poziomie 12000 pln, takiej wydajności w kartach do 2000zł nie zobaczymy do 2030r. Pamiętam WOW jakie zrobił na mnie Teoria Chaosu splinter cella (mądrze zaprogramowana gra działająca również na konsolach) Far Cry 1 (był nieziemski na premierę) Crysis wyrywał z butów (8800gtx ledwo dawał radę), wszystko potem to sidegrade z momentami które pokazywały że 200 mln usd budżetu może dać jakościowy tytuł jak Red Dead 2, przez ostatnie 20 lat dobrych gier pctowych nie brakowało ale większość to ciągły sidegrade niepotrzebujący najmocniejszych sprzętów, dobieranie timingów pamięci to zawsze była nieco sztuka dla sztuki
    • Na ITH podobna wolność słowa jak na X/Twitterze. No cóż, trzeba będzie po prostu listę ignorowanych wydłużyć  
    • Tak, ale są związane z usługą udostępnienia platformy z ramienia podmiotu X. W tym wypadku RASP. Jeśli treść, nawet przerobioną na anonimową, przetwarzać zacząłby ktoś inny, nie wiem czy przypadkiem nie potrzeba uzyskać ponownie zgody na przetwarzanie wtórne/dziedziczne. Być może bezpośrednio z RASP, ale już stwierdzono, że nie ma takiej opcji. Głośno myślę jedynie, nie wczytywałem się tak głęboko w przepisy. Ok, ale co jeśli posty zawierają informacje mogące przyczynić się do ustalenia tożsamości piszącego/piszących? Tu już robi się niestety grubiej.    
    • Ja odpowiem bo nie wybieram się na tamto forum. Zależy czy masz boxy, gwarancję i jak szybko chcesz sprzedać ale coś koło 2100.
    • Polecam zapytać na Forum ITHardware.pl tutaj już raczej nikt ci nie odpowie, to forum się zamyka i wszyscy przeszli na ith.   @MuziPL .
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...