Skocz do zawartości

Rekomendowane odpowiedzi

7 godzin temu, kadajo napisał:

Tylko zdajesz sobie sprawę ze to bardzo subiektywny temat ?
A ile Hz ma ruch w realnym życiu ? :E

:)

Nie, nie jest to temat subiektywny. Jest bardzo podstępny, skomplikowany i dość trudny do zrozumienia, bo dochodzi tutaj jeszcze aspekt psychologii, przez którą bardzo łatwo wyciągnąć błędne wnioski i wykreować sobie błędną opinię. Temat rzeka.  
Co do Hz w życiu to nie ma to znaczenia, bo inne są zalety przejścia z 30fps na 60, inne z 60 na 120, i inne z 120 na 480, a jeszcze inne z 1000 na 10000. Ludzkie oko nie widzie w klatkach na sekundę, ale jakbyś już koniecznie chciał, to piloci widzą różnice w stroboskopowym migotaniu aż do 10000-20000Hz. A bardziej na temat ruchu, to przy 1000Hz masz mniej więcej obraz 1080p. Do jakości obrazu statycznego w jakości 4K, ale w szybkim ruchu, potrzebujesz 4000Hz.

8 godzin temu, Sheenek napisał:

@Ronson Non stop piszesz tu o technologiach i osiagach ktore ponad 99% tego forum nie interesuja raczej. Malo kto bedzie celowal w fps > 175-200. Z tego samego powodu producenci nie maja az takiego parcia na rozwijanie ekranow w ta strone bo sluza bardzo, bardzo malej czesci spoleczenstwa.

Na chwila obecna rynek kart idzie w strone spopularyzowania 4k, RT i fps 60+. Wg mnie slusznie.

Nie wszystko sprowadza się do laga, nie wszystko do wrażenia płynności. Ostrość obrazu w ruchu jest czynnikiem szalenie ważnym, ale jego istotność niełatwo zrozumieć. Mówię o rozumieniu gdy ktoś nawet chce i ma na czym, bo 90% monitorów, w tym te 240Hz, się kompletnie do niczego nie nadaje w kwestii jakości obrazu w ruchu. LCD VA szczególnie, ale LCD ogólnie są za wolne. Stąd ta zmiana poglądów u większośći. Ale to nie jest argument, że większość ma rację. Wyobraź sobie, że grasz w domu na PC z dobrą myszką, setkami FPS, dobrym monitorem 144Hz lub więcej. W grę olnine typu COD, CSGO czy Battlefield. I teraz rozmawiasz z większością, która gra na konsoli i nie chce słyszeć o graniu na myszce, bo oni już raz w pracy próbowali na 20fps i LCD z roku 2001r. na zacinającej się myszce kulkowej, w 60Hz. 
I oni Ci mówią, że te całe gadanie o 120Hz wyświetlaczach, to jest indywidualna kwestia, która nikogo nie interesuje, bo większość gra na konsolach i nie narzeka, a Ty jesteś maruda. I że jego zdaniem większość gier na konsoli jest w 60fps a nawet 30fps i jego zdaniem to słusznie, bo dzięki temu w Killzone ma lepszą grafikę i imersję w grze i blablabla. ;)
A co do pisania tutaj - no przecież to jest jedna z głównych cech nadchodzącej serii kart 40xx. Ja nie marudzę na posty o tym, gdzie i co kupić, choć mnie w tym wątko to kompletnie nie interesuje i wolałbym tego nie widzieć. Wątek jest ogólny. I "kupujemy 40xx" i "dyskutujemy o serii 40xx, o technologiach i o wpływie na branżę i przyszłość, oraz o sytuacji na rynku PC z tym związanej). Taki urok wątków ogólnych, no sorry. :P
Ale nie martw się, już kończę, bo nie będę miał dużo więcej do dodania stricte na temat technologii w 40xx a o ruchu, Hz i FPS to można poczytać mądrzejsze opracowania na stronie blurbusters.com co bardzo polecam, bo się można dowiedzieć wiele ciekawych rzeczy i przewidzieć co będzie pchane jako objawienie i supertechnologia, jak marketingowcom skończą się piksele i jasność (HDRy itp.). Nie wiem czy to będzie za dekadę czy za pięć, ale kiedyś nie będzie nic innego do poprawy jak tylko jakość obrazu w ruchu. Warto wiedzieć zawczasu, żeby łatwo filtrować marketingowy bełkot a z drugiej strony nie przegapić czegoś bardzo, bardzo istotnego, co się pomyliło z marketingowym bełkotem :)

7 godzin temu, kadajo napisał:

 

Oczywiście. Tylko ze tutaj tez chodzi o sam fakt ze 60 fps to zawsze będzie te minimum i choćbyś grał i rok w 1000fps. To po przejściu na 60 będziesz potrzebował raptem kilku godzin żeby się "przyzwyczaić". Jesteś człowiekiem a człowiek się bardzo szybko adaptuje i żaden marketing tego nie zmieni :D

Właśnie o tym pisałem pisząc o pułapkach wchodzących w temat psychologii. Do 20fps też da się "przyzwyczaić", i ludzie to interpretują tak, że skoro się da przyzwyczaić, to znaczy, że brak nie robi dużej różnicy. I nie, nie przerysowałem. Pierwsze gry w latach 90tych, z grafiką 3D, często chodziły w takim FPSie. Amiga i grafika wektorowa, wiele gier na PS1. Szkoda, że wiele monitorów 240 czy 360Hz oferuje obraz w ruchu gorszy niż niektóre wyświetlacze 60Hz, co też się przyczynia do błędnego podejścia, że marketing. Owszem, marketing często jest ściemą, ale jedna i ta sama rzecz może być jednoczeście i marketingową ściemą i czymś bardzo użytecznym. Np. te 480Hz. Jak to dasz do LCDika VA czy nawet IPS, to no sorry, ale będzie to tylko marketingowa ściema. Jedyne co mozesz zyskać, to mniejszy input lag, ale to już wchodzimy w obszary gdzie zaczyna się faktycznie kwestia indiwidualna, bo 25ms vs. 100ms odczuje każdy na myszce, ale 15ms vs 25ms (całościowo, motion-to-photon) to już niewielu. 

 

7 godzin temu, Kynareth napisał:

Czytałem, że ludzie widzą do 500 Hz, powyżej nikt nie zauważa już żadnej różnicy. Więc monitory mają sens maks do 500 Hz i nawet bioniczne oczy tego nie zmienią, bo trzeba by cały układ nerwowy wymienić. I tak samo czy czas reakcji jest 1 czy 2 ms nie ma znaczenia w praktyce. Chciałbym zobaczyć by 60 fps stało się takim de facto standardem poza VR, tzn. by najlepiej nikt nigdzie nie grał poniżej 60 fps. Jednak trzeba się ludzie szanować. Nawet jak emuluję stare gry to staram się ustawić 60 fps jeśli było 30. Niestety np. pierwszy DOOM ma 35 fps i nie wiem czy da się to zmienić modami, bo nie próbowałem. Ludzie się wtedy cieszyli jak im w tych 35 fps działało (znaczna część monitorów CRT miała 70 Hz).

To bzdury czytałeś. Poczytaj to, co piszą ludzie, którzy znają temat, a nie ekspertów od siedmiu boleści z internetów.
https://blurbusters.com/blur-busters-law-amazing-journey-to-future-1000hz-displays-with-blurfree-sample-and-hold/
Tutaj masz przykład jak wygląda 500Hz. Tylko, że to wolny ruch. Przy szybkim weź o rząd przesuń, czyli patrz jak wygląda obrazek w 250Hz. Jak chcesz mieć obraz o jakości statycznego obrazu 1080p, to potrzebujesz ponad 1000Hz. Do 4K odpowiednio więcej. A gdzieś przy 20000 zaczynasz zmieniać obraz ze sztucznego na taki jakie ludzkie oko widzi w naturze - weź na monitorze nawet 360Hz zacznij kręcić kamerą wokół jakiegoś obiektu na którym się skupasz, zakładamy, że patrzysz na monitor idealny, MicroLED i perfekcyjny tryb low persistence. Zauważysz, że dookoła masz stroboskopowe klony. Kręcąc kamerą szybko na 60Hz będziesz miał okrąg zrobiony z np. dronów na ekranie, w ilości np. 10 klonów. Przy 120Hz będzie to 20 klonów. Przy 240Hz będzie to 40 klonów. W artykule masz to na ilustracji "Mouse cursor stroboscopic effect" ale w grach jest tak samo.
Żeby obraz nie miał tej "stroboskopowej" wady, potrzebujesz, aby żaden obiek na ekranie nie poruszał się więcej niż o 1 piksel na klatkę. I tutaj ekrany 10000+ pomogą. Choć mi akurat to nie przeszkadza, to już dla purystów. Tak tylko chciałem udowodnić jakim potłuczonym pierdzieleniem jest pisanie o jakichś wyimaginowanych granicach ilość FPS jakie widzi ludzkie oko. 

Cytat

Ludzie się wtedy cieszyli jak im w tych 35 fps działało (znaczna część monitorów CRT miała 70 Hz).


Co do tego irytującego "a bo kiedyś to ludzie mieli 30fps i się cieszyli" to guzik prawda. Jeszcze raz - psychologia tu wchodzi. Trudność zrozumienia jak dużo daje (każdemu!) dobra jakość obrazu w ruchu. Dlatego w tych czasach, gdy większość się cieszyła z 30fps, bo grali w SVGA, ja napieprzałem w Duke Nukem 3D w 400x300 dla idealnej płynności i jakości obrazu. W Screamera 1 i 2 grałem w 320x240 na Pentium 133, gdzie w Secret Service pisali, że do SVGA to potrzeba Pentium 120. Nawet w Wolfenstein 3D ciekawiła mnie różnica w tym jak się w to gra na 286 kolegi (on mówił, że chodzi przecież dobrze) i na moim 386. Konsolowcom główie zazdrościłem gier w 60fps (50 u nas) już w czasach młodości Playstation 1 i na VooDoo często grałęm w 512x384 zamiast 480p, bo te stałe 60, 70 czy 72fps (nie każda gra na VooDoo 4MB chodziła tylko na 60) robiło różnicę. Już w 1994r. na 386 ciekawiła mnie ta "magia" jaką daje idealna płynność, choć w temacie gier 3D to na 386 to były tylko starsze i proste wektorówki. To, że ktoś dopiero 20-30 lat później poznał zalety grania w wysokim FPS nie znaczy, że wtedy, w tych latach 90tych nic nie tracił. Szczególnie jak pomyślec, że ludzie wtedy mieli CRTeki to mi ich żal :)

7 godzin temu, kadajo napisał:

Odświeżanie w monitorach CRT nie miało nic wspólnego z FPS jak dziś w LCD ze względu na inna metodę tworzenia obrazu.
Na CRT 60 fps jest bardziej płynne niż 240 fps na 240hz LCD ;)

Wyższe odświeżanie w CRT miało tylko i wyłącznie podniesc komfort użytkowania w postaci mniej meczącego migotania.

Mówisz o różnicy low persistence vs. sample and hold. 
Ale nie zgodzę się ztym ostatnim. Miało jeszcze coś. W szybkich grach 120fps pomaga i pomagało nawet w 99r., gdy grałem w Forsakena na 85Hz/85fps, a sterowanie myszką w Unreal Tournament '99 też było znacznie fajniejsze dzięki 100Hz (nie pamiętam czy gra supportowała więcej, wtedy jeszcze miałem słaby monitor, i 100Hz to już śrubki gubił w wyższej rozdziałce ;) )
Z komfortem zgoda. Przejście z 60 na 85Hz pomagało każdemu, z 85 na 100 nadal była różnica, a niektórym pomagało i 120 > 160. Każdemu jednak więcej Hz pomagało dłużej wgapiać się bez bólu głowy, czy tego byli świadomi czy nie. I dokładnie tak samo jest z LCDikami i OLEDami dzisiaj, gdy się je używa w trybie low persistence (migotanie)

 

7 godzin temu, lukadd napisał:

A jakbyś porównał to do oleda z najszybszą reakcją pixela w wyświetlaczach to japa by ci się jeszcze bardziej cieszyła i nawet na tych 120hz. Ja mam na chacie również 165hz IPS 1440p. Oled to kosi.


Pod warunkiem, że w tym OLEDzie masz poprawny tryb low persistence, tutaj zwany Black Frame Insertion. Bez tego, obraz w 120Hz nawet na OLED nigdy nie zbliży się do jakości ekranu z poprawnie działającym trybem LP, nawet jeśli to jest zaledwie LCD TN na przykład. 
Bez LP 120Hz oznacza 8ms widzenia klatki obrazu, a zobacz jak to wygląda w średniej prędkości ruchu:
df1ebdfabfc2aa046dd37842a4f41db2.png

6 godzin temu, aureumchaos napisał:

Tak tu czytam i wiekszosc mowi beee na dlss i dlss 3.0... A tu na reddicie pod filmem DF ludzie sa wrecz zachwyceni tym cudem i nawet usprawiedliwiają tym cene kart.. " You need to pay for such of piece of new technology" lub "it is exciting moment in GPU evolution".... Czy tu na forum sa sami ludzie na NIE tylko czy tam z koleji sami fanboje nvidii rodem fanow Apple... O co kaman ja sie pyam zatem?

To proste. Ludzie nie mają pojęcia o zagadnieniu obrazu w ruchu i będą łykać jak Alex z DF mówi, że w ruchu żadnych wad nie widać. Jeśli ktoś gra na LCD VA no to sorry, ale nie ma o czym mówić. Mógłbyś tam co drugą klatkę wrzucić zdjęcia roznegliżowanego (tu wstaw imię polityka 70+, którego nie lubisz) a ludzie by nie protestowali ;)
Jak im EKSPERT z Digital Foundry mówi, że to ekscytująca nowa droga rozwoju, że AI jest super, to tak będą poklaskiwać, zupełnie jak ślepi wyznawcy na politycznych wiecach klaszczący swoim "guru".

 

Edytowane przez Ronson
  • Like 1
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Większość mówi be na DLSS 1/2 teraz 3.

Większość używa DLSS, rozumiem że teraz porzucą tą technologię? :szczerbaty:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, galakty napisał:

Mi to trochę szkoda żyłować sprzętu żeby mieć 240 FPS w jakiś strzelankach..

Dlaczego? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
54 minuty temu, KamcioGF napisał:

U nas też niektórzy są zachwyceni tym sztucznym podbijaniem samych klatek

 

Można by tych wszystkich nośnych YTberów w komentarzach zapraszać do nas do dyskusji.
Bo mogą żyć w niewiedzy. Takie YT, to takie gadanie w jedną stronę.
On wie co wie, i klepie to do kamery, ale prostować się tego w komentarzach nikomu nie chce.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, sideband napisał:

Zgadza się na OLED inny świat mnie się cieszy japa już przy 80hz w grach ;)

Nikt nikomu nie każe implementować DLSS i to samo dotyczy używania. Będzie krytyka i zwroty gier to niektórym developerom bardzo szybko wyjdą z głowy takie pomysły piszę tutaj o stricte DLSS 3.0 w obecnej postaci. DLSS 2.x powoli staje się standardem, którego wcale nie trzeba używać.

Taa. Będzie krytyka bo ludzie będą krytykować to, czego nie są w stanie nawet zobaczyć, bo siedzą na monitorach typu "Cudny, zarąbisty król monitorów gamingowych z HDR! 40" 21:9 zakrzywiony, 360Hz i Gsync!" a opartym o... matrycę VA, która zmieli doszczętnie absolutnie każdy detal w ruchu.
Oczywiście, że nie będą protestować. Tak jak nie protestowali przy TAA wymuszanym w grach na PC (WTF?!) czy nie protestują jak im FSR2 robi sieczkę z obrazu w ruchu. BO. TEGO. NIE. WIDZĄ. Bo 95% wyświetlczy używanych do gier nie nadaje się kompletnie do wyświetlania szybkiego ruchu. Smutne jest to, że marketingowcy i cwaniacy korzystają z tej wady, aby pod jej przykryciem przesunąć moc obliczeniową z obrazu ruchomego na statyczny,  i jeszcze każą sobie klaskać, bo oto cudna technologia typu TAA/FSR2! (te są katastofalne, DLSS 2 nie będę wrzucał do tego samego wora, bo ten przynajmniej czasem jest trochę gorszy i potrafię sobie wyobrazić korzyść z użycia takiej opcji, choć nienawidzę faktu, że będzie nam odebrana możliwość wyłączenia tego badziewia tak jak już to się dzieje, bo w wielu grach bez TAA czy innego guana, nie pograsz, o ile nie ma patcha od społeczności, robionego specjalnie aby to guano wywalić (ja pierwsze co robię to googluję "TAA disable mod" przy nowych grach)

 

@Sheenek
 

Cytat

Ile marzy ma Nvidia to nie wiem, ale w relacji z EVGA jezus przytaczal dane od nich i marza EVGA na kartach RTX to tylko 5%, gdzie na zasilaczach maja 15% :E 


To podał jako przykład, nie jako info, także z tego nie wyciągaj żadnych wniosków. 

 

Cytat

 

U nas też niektórzy są zachwyceni tym sztucznym podbijaniem samych klatek

 

 

 

Lubię gościa jak gada o retro i tamtych czasach, ale jak pierdzieli o grafice w grach współczesnych (edit: i o sprzęcie też, racja) i o tym, jaki on jest zarąbisty bo się kiedyś cieszył z 30fps, to ręce opadają. Tego filmiku nie odpalałem nawet, bo wiedziałem z góry, że to ostatnia osoba, która powinna się za ten temat zabierać. Jego opinie w tych tematach są na 0/10, tak jak jego filmiki o starych dziejach Segi, Jaguara itp. są na 10/10. To, co on czasem wygaduje, to by się na parodię lub kabaret nadawało. "Zawsze siedzę na procach Intela, bo tak się przyjęło, że zawsze lepszy" (bo miał kiedyś AMD K6 bodajże :hahaha: ) Jak mówi o grach na PC i konsole to też wyraźnie czuć, kiedy nie ma pojęcia o czym mówi, bo po prostu brak mu doświadczenia - bo nie miał danego sprzętu. Teraz w ostatnich latach zabrał się za kilka starych konsol i przyznaje, że się czymś zaskoczył. Ale pierdzenia, że "kiedyś to dobrych gier tego typu nie było" bo on miał PC i 99% tego danego typu gier na PC nie było - to już nie cofnie. Na grafice też się zna - bo robil przy grafie 2D i 3D, ma 30 lat życia w kompach więc jest mędrcem ;) 
Ale nie on jeden. Takich fachowców, którzy będą chwalić wszlkie DSSSy, FSRy i inne TAA - jest cała masa.

Edytowane przez Ronson
  • Like 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
24 minuty temu, dadi82 napisał:

Większość używa DLSS,

Skąd to info?

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Ronson napisał:

(...)
Ale nie on jeden. Takich fachowców, którzy będą chwalić wszlkie DSSSy, FSRy i inne TAA - jest cała masa.

Musimy nauczyć się być obiektywni, nie popadać w skrajności.

Ja DLSS pochwalam, uważam, że fajny ficzer (ze swoimi akceptowalnymi, bądź nie wadami).
Ale nie możemy też wychwalać wniebogłosy uwstecznienia, gdzie to ten (akceptowalny lub nie) ficzer staje się "fundamentem" rozwoju i wyznacza kierunki.
Zamiast się go wstydzić (bo miał to być jedynie "dodatek dla biedniejszych" posiadaczy słabszych GPU) staje się flagowym produktem!
No tu ocieramy się o patolę rozwoju.

 

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja w ostatnich latach zrozumiałem, że Nvidia wybrała stronę ZŁA i najlepsze co gracze mogą wspólnie zrobić to bojkotować ją.

Gdyby wybrali stronę DOBRA, to zamiast sprzedawać karty górnikom, sprzedawaliby RTXy 3060 Ti za $329 na Steamie dla kont minimum aktywnych przez rok, max 1 sztuka. I wtedy bym uznał, że wybrali dobrą stronę. A tak, to widać, którą wybrali. AMD też wybrało stronę zła, co widać po ich cenach i też sprzedawaniu górnikom.

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 minut temu, Ronson napisał:

To podał jako przykład, nie jako info, także z tego nie wyciągaj żadnych wniosków. 

Racja, "5%" to byl przyklad, faktem za to bezposrednio od EVGA jest to ze marza na PSU jest 3x wyzsza niz na GPU.

Edytowane przez Sheenek
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 minut temu, *** ChOpLaCz *** napisał:

Ja DLSS pochwalam, uważam, że fajny ficzer (ze swoimi akceptowalnymi, bądź nie wadami).
Ale nie możemy też wychwalać wniebogłosy uwstecznienia, gdzie to ten (akceptowalny lub nie) ficzer staje się "fundamentem" rozwoju i wyznacza kierunki.
Zamiast się go wstydzić (bo miał to być jedynie "dodatek dla biedniejszych" posiadaczy słabszych GPU) staje się flagowym produktem!
No tu ocieramy się o patolę rozwoju.

W ten sposób uwaliłbyś rozwój. Wiele technologii i wynalazków było początkowo bardzo niedoskonałych, a ostatecznie zrewolucjonizowały świat i zostały z nami na wieki. DLSS daje bardzo dużo, ale wymaga dopracowania.

8 minut temu, Kynareth napisał:

Ja w ostatnich latach zrozumiałem, że Nvidia wybrała stronę ZŁA i najlepsze co gracze mogą wspólnie zrobić to bojkotować ją.

Gdyby wybrali stronę DOBRA, to zamiast sprzedawać karty górnikom, sprzedawaliby RTXy 3060 Ti za $329 na Steamie dla kont minimum aktywnych przez rok, max 1 sztuka. I wtedy bym uznał, że wybrali dobrą stronę. A tak, to widać, którą wybrali. AMD też wybrało stronę zła, co widać po ich cenach i też sprzedawaniu górnikom.

Dobro i zło to są w grach i flimach. ;) Załóż swoją firmę i pokaż, jak sprzedajsz swoje pomysły i produkty oraz czas za połowę możliwej ceny w imię "dobra". ;) Już to widzę, jak wyszukujesz pojednyczych użytkowników w detalu, gdy hurtem można puścić wszysto od ręki i do tego w lepszej cenie. To się po prostu nie kalkuluje żadnemu biznesowi.

Edytowane przez Karister

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, Kynareth napisał:

Ja w ostatnich latach zrozumiałem, że Nvidia wybrała stronę ZŁA i najlepsze co gracze mogą wspólnie zrobić to bojkotować ją.

Gdyby wybrali stronę DOBRA, to zamiast sprzedawać karty górnikom, sprzedawaliby RTXy 3060 Ti za $329 na Steamie dla kont minimum aktywnych przez rok, max 1 sztuka. I wtedy bym uznał, że wybrali dobrą stronę. A tak, to widać, którą wybrali. AMD też wybrało stronę zła, co widać po ich cenach i też sprzedawaniu górnikom.

Firma jak firma, musi podlizać się inwestorom, a nam jedynie zostaje zagłosować portfelem. Widząc jednak ile osób próbuje sobie racjonalizować te ceny jestem zdania że będzie jeszcze gorzej... 

Btw. Ps5 na łowcach gier po 4k wczoraj było :E

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
59 minut temu, Ronson napisał:

Mówisz o różnicy low persistence vs. sample and hold. 
Ale nie zgodzę się ztym ostatnim. Miało jeszcze coś. W szybkich grach 120fps pomaga i pomagało nawet w 99r., gdy grałem w Forsakena na 85Hz/85fps, a sterowanie myszką w Unreal Tournament '99 też było znacznie fajniejsze dzięki 100Hz (nie pamiętam czy gra supportowała więcej, wtedy jeszcze miałem słaby monitor, i 100Hz to już śrubki gubił w wyższej rozdziałce ;) )
Z komfortem zgoda. Przejście z 60 na 85Hz pomagało każdemu, z 85 na 100 nadal była różnica, a niektórym pomagało i 120 > 160. Każdemu jednak więcej Hz pomagało dłużej wgapiać się bez bólu głowy, czy tego byli świadomi czy nie. I dokładnie tak samo jest z LCDikami i OLEDami dzisiaj, gdy się je używa w trybie low persistence (migotanie).

 

Aleś elaborat walną :E

Tak, wraz ze wzrostem FPS spada ci input lag, dlatego w FPS'y grało się lepiej już w latach 90 przy większym FR. Natomiast ja pisałem w odniesieniu do odwzorowania ruchu na ekranie.

@Ronson jeszcze jedno, staraj się nie przeklinać nawet wykropkowanie. Wyedytuj prosze swoje wypowiedzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Karister napisał:

W ten sposób uwaliłbyś rozwój. Wiele technologii i wynalazków było początkowo bardzo niedoskonałych, a ostatecznie zrewolucjonizowały świat i zostały z nami na wieki. DLSS daje bardzo dużo, ale wymaga dopracowania.

Ale ja to świetnie wiem. Chodzi o proporcje! Niech sobie robią te DLSS 3.0, 4.0 i fefnaście... jako dodatek, bonus, ficzer (super! jestem za!).
Ale cala polityka sprzedażowa 40xx opiera się obecnie na 4x boost RT z DLSS i... cena x2 poprzednia generacja, gdy tak naprawdę, sami to tu oceniliśmy, rasteryzacja przyrost słaby, wszystko vs poprzednia generacja = bez petardy (a gabaryt i prądy jeszcze w górę), ale DLSS 3.0 i i x4 RT i... cena x2!

O to mi chodzi.
Nakryli pozorami zwiększenia wydajności (takimi na ślinę i pajęczynę DLSS i RT) dowalili cenę x2 nie dając nic, tylko gloryfikując podrzędny ficzer (który może być bonusem, ale nie filarem nowej generacji). 

Edytowane przez *** ChOpLaCz ***
  • Like 1
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszyscy moi znajomi z RTX używają DLSS w grach AAA. Oczywiście to nie miarodajne ale tak jest. 

W sumie ciekawy jestem jak to wygląda.

Jakieś badania sonda?

Ja używam np Cp2077, Dying Light 2. 

Być może przy rozdziałce 1080p nie jest to potrzebne ale 4K RT, na dzisiaj w AAA bez DLSS jest straszna bieda, jak choćby w wspomnianym CP20077

Edytowane przez dadi82

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tez uzywam DLSS ale tylko quality.... jesli klatki leca ponizej 60 w RT przy 3440... heh... 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, aureumchaos napisał:

Ja tez uzywam DLSS ale tylko quality.... jesli klatki leca ponizej 60 w RT przy 3440... heh... 

Ja to samo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Kynareth napisał:

Ja w ostatnich latach zrozumiałem, że Nvidia wybrała stronę ZŁA i najlepsze co gracze mogą wspólnie zrobić to bojkotować ją.

Gdyby wybrali stronę DOBRA, to zamiast sprzedawać karty górnikom, sprzedawaliby RTXy 3060 Ti za $329 na Steamie dla kont minimum aktywnych przez rok, max 1 sztuka. I wtedy bym uznał, że wybrali dobrą stronę. A tak, to widać, którą wybrali. AMD też wybrało stronę zła, co widać po ich cenach i też sprzedawaniu górnikom.

Może jakieś egzorcyzmy by tutaj pomogły. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak będę miał w 4k RT ON +60 FPSów i będę widział pogorszenie obrazu z włączonym DLSS to nie będę używał. Na razie jestem do tego zmuszony. :szczerbaty:

Tym bardziej że na DLSS "jakość" nie widzę spadku jakości grafiki.

 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja znowu nie używam. Chyba tylko w Cyberpunku jak się uprę na RT to mam do wybory albo DLSS albo 30 fps. I tak źle i tak niedobrze.
Grałem przez chwile w BF2042 z DLSS (z włączonym RT) ale jak wróciłem do natywnej gdzie z RT klatki mi spadały poniżej 60 i zobaczyłem jaka różnica jest na korzyść natywnej to RT poleciał, i tak w tej grze pstro dawał. I teraz  klatki nie spadają poniżej 60.

Ogólnie im większy ekran tym bardziej widać utratę jakości DLSS już na quality.

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
41 minut temu, *** ChOpLaCz *** napisał:

Ale ja to świetnie wiem. Chodzi o proporcje! Niech sobie robią te DLSS 3.0, 4.0 i fefnaście... jako dodatek, bonus, ficzer (super! jestem za!).
Ale cala polityka sprzedażowa 40xx opiera się obecnie na 4x boost RT z DLSS i... cena x2 poprzednia generacja, gdy tak naprawdę, sami to tu oceniliśmy, rasteryzacja przyrost słaby, wszystko vs poprzednia generacja = bez petardy, ale DLSS 3.0 i i x4 RT i... cena x2!

O to mi chodzi.
Nakryli pozorami zwiększenia wydajności (takimi na ślinę i pajęczynę DLSS i RT) dowalili cenę x2 nie dając nic, tylko gloryfikując podrzędny ficzer (który może być bonusem, ale nie filarem nowej generacji). 

Wiadomo że te ficzery są dla tych co muszą mieć 500+ FPS, nie ważne że grafika jest dużo gorsza. Ale fajnie się pochwalić "4K" i "500FPS"

To są zwykłe chwyty marketingowe. DLSS jest dobry w "dobrych" ustawieniach gdzie bez widocznego spadku grafiki ma się lepszą płynność. Dlatego mi nie przeszkadza ja "renderuje" z 1440p, jak ktoś chce z 720p i uważa że jest OK, niech tak robi.

Co do cen to rosły, rosną i będą rosły. Niestety. 4080 16GB ponad 7K PLN ?

Edytowane przez dadi82

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Ronson napisał:

To bzdury czytałeś. Poczytaj to, co piszą ludzie, którzy znają temat, a nie ekspertów od siedmiu boleści z internetów.
https://blurbusters.com/blur-busters-law-amazing-journey-to-future-1000hz-displays-with-blurfree-sample-and-hold/
Tutaj masz przykład jak wygląda 500Hz. Tylko, że to wolny ruch. Przy szybkim weź o rząd przesuń, czyli patrz jak wygląda obrazek w 250Hz. Jak chcesz mieć obraz o jakości statycznego obrazu 1080p, to potrzebujesz ponad 1000Hz. Do 4K odpowiednio więcej. A gdzieś przy 20000 zaczynasz zmieniać obraz ze sztucznego na taki jakie ludzkie oko widzi w naturze - weź na monitorze nawet 360Hz zacznij kręcić kamerą wokół jakiegoś obiektu na którym się skupiasz, zakładamy, że patrzysz na monitor idealny, Micro-LED i perfekcyjny tryb low persistence.

Może bzdury czytałem. Ale tak ktoś twierdził. To było wiele lat temu i już dokładnie nie pamiętam. 

Problem jest taki: RTX 3080 jest tylko 7.22x szybszy od GTXa 580 po 10 latach. Czyli gra z 2010, która na GTX 580 działała w 100 fps w 1080p, na RTX 3080 działa w 722 fps, nadal w 1080p. Na RTXie 4080 12 GB może być ~940 fps. A więc po ~12 latach nie masz nawet 1000 fps w grze z 2010, i to na karcie za $899. No i CPU : one są tylko może 3x szybsze w grach (może 5x szybsze w konsolach). A ty piszesz o 20,000 fps. Do tego rozdzielczość pewnie też przydałaby się tak ze 32K na oko przy szerokim polu widzenia. I tu już wkraczamy nawet nie w petaflopsy, tylko w exaflopsy, a może nawet zettaflopsy. Przynajmniej bez sztuczek typu DLSS i interpolacja. Na konsoli osiągnięciem jest, gdy gra działa w stabilnych 60 klatkach. Bo część gier działa w 25. Cyberpunk 2077 by osiągnąć na (obecnych) konsolach 60 fps, musi znacząco zmniejszać ilość NPC, rozdzielczość i detale. To jak my w ogóle możemy pisać o 1000+ fps? Jak na razie, to celem powinno być aby każda gra na konsoli osiągnęła stabilne 60 klatek, a dla PC standardem było 120 klatek. Tom z Moore's Law is Dead twierdzi, że graczom nie potrzeba nic więcej od 4K 120fps. Ja się z nim nie zgadzam ale wiele osób się z nim zgadza. I w związku z tym, nie będziemy nawet potrzebować kart szybszych niż 4x RTX 4080. Z czym się też nie zgadzam ale co poradzić. Można oczywiście pisać, tak jak ty to robisz i ja też trochę robię. Tłumaczyć. No ale dzisiaj dla takiego zwykłego przeciętnego człowieka konsolą na jaką sobie może pozwolić jest Xbox Series S z 4 teraflops i 224 GB/s 8 GB RAM. Oczywiście nasze wymagania co do klatkarza powinny rosnąć ale tak jak pisałem, jeśli weźmiesz grę z 2010-2012 i uruchomisz w 4K 240fps, to wymaksujesz obecne karty i procesory. A gdzie postęp graficzny, fizyczny, SI, gdzie ray-tracing? Nie ma obecnie dobrego rozwiązania, postęp idzie tak wolno, że musimy pogodzić się z tym durnym DLSS 3.0, bo nie ma alternatywy. Do VR będzie z kolei jeszcze śledzenie wzroku i Foveated Rendering. Połączenie jednego z drugim sprawi, że karty poradzą sobie z 16K na oko w 120 fps.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
31 minut temu, dadi82 napisał:

Wiadomo że te ficzery są dla tych co muszą mieć 500+ FPS, nie ważne że grafika jest dużo gorsza. Ale fajnie się pochwalić "4K" i "500FPS"

Bez sensu prawisz. Ja używam DLSS zawsze, by mieć nie mniej niż 80 fps (a czasami 60).

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sam już nie wiem ani co robić ani jaka jest przyszłość gamingu.

W 2016 za 1200 zł kupiłem 1060 GB. Teraz chcę za 2800 zł kupić 3060 Ti, które jest 2,5x szybsze i ma 33,3% więcej pamięci. Nie licząc oczywiście DLSS i ray-tracingu. W tej sytuacji nie widzę możliwości większego rozwoju. Bo jeśli za kolejne 6 lat, będą ode mnie chcieć np. 7500 zł za odpowiednik 1060 6GB i 3060 Ti, to ja po prostu nie kupię ani konsoli ani nowego desktopa. I miliony innych osób też nie kupi. A grać na smartfonie nie będę i w Heroes III też mi się nie chce.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Recesja wyrówna ciśnienie w zbiornikach ekonomicznych. Ale to potrwa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Kynareth napisał:

Sam już nie wiem ani co robić ani jaka jest przyszłość gamingu.

 nie kupię ani konsoli ani nowego desktopa

Sam sobie odpowiedziałeś, nie dziękuj.

  • Haha 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...