Skocz do zawartości
maxoff

Grafa do 4K

Rekomendowane odpowiedzi

Witam.

Planuję złożenie jakiegoś kompa z używanych podzespołów. Kpmp raczej w większości do gier w 4K.

Procek to pewnie jakieś i7 Coffy Lake ale mam problem odnośnie grafiki/garfik...

Zastanawiam się nad dwoma GTX1070 w SLI lub jednej GTX1080Ti - co wg. Was będzie działać płynniej w 4K ?

Budżet na ta chwilę ograniczony wiec proszę rozpatrywać coś w podobnej cenie z podzespołów używanych.

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podaj dokładny budżet na GPU, i na pewno nie baw się w żadne SLI.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak 4K to wybór jest tylko jeden:RTX 2080 Ti - jak ultra detale to konieczność

1070 w SLI czy 1080 Ti nie dadzą rady,chyba że zejdziesz z detalami

 

i na pewno nie baw się w żadne SLI.

SLI/NVLink będzie działać tylko w takich grach jak Wiesiek 3 czy Shadow of Tomb Raider,w pozostałych przypadkach łączenie kart daje absolutnie nic/niewielki przyrost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ehh... szkoda myślałem że takie 2 karty w SLI dadzą rade...

Niestety budżet nie za wielki bo ok. 1500zl za używane GPU. Także odpuszczam na tą chwilę temat bo ładowanie ok. 4tyś. grafę nie bardzo mi się widzi...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W 4K mozna śmiało grać na 1080TI, 2070Super, 2080 przy detalach wysokie/ultra. Jak dobrze pokombinujesz, bez dużych strat masz 60 klatek, czesto pelne Ultra ze spadkami do 45, gdzie przy blokadzie klatek jest ok, nie mówiąc o G-Sync, FreeSync. Mimo wszystko 1500zł to będzie mało, z używanych minimum 1080Ti, z nowych najtańszy 2070Super, nawet RX5700XT. Ale jak pełne Ultra i 4K to nawet 2080Ti w zależności od gry będzie za mało.

Edytowane przez skunRace

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko, jaki sens ma granie w 4K przy 45-60 klatkach? Toż dużo lepszy efekt wizualny będzie przy monitorze 2k z 144 Hz, gdzie przy tych samych kosztach sprzętu wyciśnie się 80-100 klatek i przy wyższym odświeżaniu obraz będzie bardzo ostry a do tego bardzo płynny. Szczerze mówiąc, to dopóki monitory 4K z odświeżaniem 144Hz nie staną się standardem, a GPU bez krztuszenia się będą w stanie wygenerować te 80-100 klatek na takim wyświetlaczu, to pakowanie się w 4K jest po prostu bez sensu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko, jaki sens ma granie w 4K przy 45-60 klatkach? Toż dużo lepszy efekt wizualny będzie przy monitorze 2k z 144 Hz, gdzie przy tych samych kosztach sprzętu wyciśnie się 80-100 klatek i przy wyższym odświeżaniu obraz będzie bardzo ostry a do tego bardzo płynny. Szczerze mówiąc, to dopóki monitory 4K z odświeżaniem 144Hz nie staną się standardem, a GPU bez krztuszenia się będą w stanie wygenerować te 80-100 klatek na takim wyświetlaczu, to pakowanie się w 4K jest po prostu bez sensu.

Dokładnie 4k to tak za dwa trzy lata jak beda monitory w przystepnej cenie i karty graficzne ogarniające 4K z Ray Tracingiem.

2K(2560x1440) 144 hz narazie mi wystarcza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na monitorze 4k można grać w 1440p i zastosować filtr wyostrzający Nvidii/AMD/Reshade i prawie nie będzie różnic względem natywnego 4k. Są testy w sieci takich rozwiązań.

Oczywiście to tylko półśrodek, ale monitor się zmienia rzadziej niż kartę, więc za 2-3 lata jak wpadnie nowe GPU to można będzie odpalać natywne 4k i grafika uciągnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Tylko, jaki sens ma granie w 4K przy 45-60 klatkach?
Zapytaj się konsolowców. Podejrzewam, że w 4K gra:

1. ok. 90% posiadaczy PS4 Pro (oszukane 4K)

2. ok. 1-5% pecetowców mających sprzęt klasy PS4 Pro (z zapasem, bo na konsolach lepsza optymalizacja).

 

Konsolowcom marketingowcy wyprali mózg z tym jakie 4K wspaniałe (niedługo tak będzie z 8K, oszukane, 30 fps, medium), zaś pecetowcy wyprali sobie sami, że musi być 1000 fps i detale Ultra. Bez przeginania 1080 Ti wystarczy do 4K (https://pclab.pl/art81248-13.html), można trochę obciąć detale, szczególnie te zjadające najwięcej mocy z małym efektem.

 

Dokładnie 4k to tak za dwa trzy lata jak beda monitory w przystepnej cenie i karty graficzne ogarniające 4K z Ray Tracingiem.
Za 2-3 lata to będziesz miał powszechne TV 8K (tak samo było z 4K). W 2020 będą nowe konsole i 100% będzie grać w prawdziwe 4K (a część w oszukane 8K), a pecetowcy co? Nadal będą czekać aż RTX 2080 Ti stanieje? Obecnie wzrost technologiczny jest żałosny, np. skok z GTX 1060 na 1660 w 3 lata (ale i od 2013 żałośnie). Nowe karty będą, ale będą bardzo drogie i niewiele szybsze, na RT 4K i 100 fps Ultra bym nie liczył, pewnie znowu z 5000 zł.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapytaj się konsolowców. Podejrzewam, że w 4K gra:

1. ok. 90% posiadaczy PS4 Pro (oszukane 4K)

2. ok. 1-5% pecetowców mających sprzęt klasy PS4 Pro (z zapasem, bo na konsolach lepsza optymalizacja).

 

Konsolowcom marketingowcy wyprali mózg z tym jakie 4K wspaniałe (niedługo tak będzie z 8K, oszukane, 30 fps, medium), zaś pecetowcy wyprali sobie sami, że musi być 1000 fps i detale Ultra. Bez przeginania 1080 Ti wystarczy do 4K (https://pclab.pl/art81248-13.html), można trochę obciąć detale, szczególnie te zjadające najwięcej mocy z małym efektem.

 

Za 2-3 lata to będziesz miał powszechne TV 8K (tak samo było z 4K). W 2020 będą nowe konsole i 100% będzie grać w prawdziwe 4K (a część w oszukane 8K), a pecetowcy co? Nadal będą czekać aż RTX 2080 Ti stanieje? Obecnie wzrost technologiczny jest żałosny, np. skok z GTX 1060 na 1660 w 3 lata (ale i od 2013 żałośnie). Nowe karty będą, ale będą bardzo drogie i niewiele szybsze, na RT 4K i 100 fps Ultra bym nie liczył, pewnie znowu z 5000 zł.

Na konsolach na pewno nie będzie się grać w "prawdziwym" 4K. No chyba że detale no low w porównaniu do PC i oczywiście FPS 30.

Chciałbym się mylić ale raczej się nie mylę.

Co do 4K to żeby było 60FPS na high / ultra. To potrzeba 2080Ti a i tak RT trzeba ciąć.

Wzrost technologiczny żałosny piszesz (dla PC)

To porównaj 980TI do 2080TI Karty te dzielą 4 latka. Porównaj też jaki jest przyrost technologiczny w konsolach w tym samym czasie. Zresztą jak konsole mają iść mocno do przodku skoro bazują na AMD. A ich karty mają żenujący wzrost wydajności w porównaniu do zielonych. Fakt 5700xt troszkę podgonili ale cały czas są w głęboko w lesie. Na szczęście z prockami poszli mocno do przodu ale GPU zały czas kuleje IMO.

Edytowane przez dadi82

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko zależy od gier i tego czy w ustawieniach nie wszystko musi być na maksa w prawo ;)

 

Ja gram w gierki w 4k na 1070, w jednych spokojnie suwaki na maksa w innych trzeba poschodzić troszkę żeby było 60 fps. W skrócie bierz pojedynczą najmocniejszą kartę na jaką będzie cię stać i graj :cool:

 

Ps. Nie gram w najnowsze gry takie jak metro exodus itd. (podaje to info żeby nikt nie wyciągnął wniosku że 1070 wszystko na high ogarnie)

Edytowane przez Omega93

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko zależy od gier i tego czy w ustawieniach nie wszystko musi być na maksa w prawo ;)

 

Ja gram w gierki w 4k na 1070, w jednych spokojnie suwaki na maksa w innych trzeba poschodzić troszkę żeby było 60 fps. W skrócie bierz pojedynczą najmocniejszą kartę na jaką będzie cię stać i graj :cool:

 

To chyba nie piszesz a tytułach AAA tych w miarę nowych oczywiście.

Sam grałem w 4K na 1080. I w żadnej grze którą ogrywałem nie mogłem sobie pozowlić na najlepsze ustawienia i 60FPS.

W "głupim" Wiedźminie były lokacje gdzie FPS spadał do ~40 (bez HW i bez AA) Średnio było z tego co pamiętam ~50FPS.

To samo w najnowszym Desus EX, i wielu innych tytułach.

Także reasumując na 1080/1080TI oczywiście pogramy w 4K ale suwaki w lewo. Co nie jest niczym złym.

Ale kupować teraz 1080/1080TI chyba nie ma większego sensu? No chyba że jest obawa o padające RTXy

Edytowane przez dadi82

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale ile jest obecnie dostępnych monitorów 4K z odświeżaniem ~100hz? W jakich cenach? Nawet jak kupi się monitor 4K i chce się grać w 2K (co jest kompletnie bez sensu) to i tak większość ma odświeżanie 60Hz a porządny 1440p zjada je na śniadanie. O 4K na konsolach nie mówmy, bo miałem PS4 Pro przez 2 miesiące żeby ograć kilka tytułów i jakość wyświetlanego obrazu to jest dramat. Konsolę oddałem w cholerę i więcej nie chcę mieć z tym nic wspólnego. To jest dobre urządzenie dla ludzi mających 2000 zł i chcących pograć a równocześnie nie mających większych wymagań odnośnie grafiki i płynności. Nawet mając kasy jak lodu to 4K dalej jest bez sensu bo wkłądając 2x2080Ti dalej jakość obrazu nawet na monitorze 4k 144hz będzie gorsza od 1440p ze względu na niemożliwość wygenerowania 100 klatek. Oczywiście mówimy o grach wymagających nie tytułach e-sportowych. Realnie patrząc na tą chwilę 2K 144Hz to najlepsza możliwa opcja.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Realnie patrząc na tą chwilę 2K 144Hz to najlepsza możliwa opcja.

Ja powiem tak, nie raz słyszałem że jak ktoś spróbował 120/144hz to za nic nie wróci do 60hz. Cóż mogę się z tym zgodzić.

Ale podobnie jest 2k vs 4K. Mam monitor 4K już ze 3 lata. Nawet kilka miesięcy temu zastanawiałem się czy nie zmienić na 2K 144HZ.

Ale postanowiłem że nic nie zmieniam. Mam 4K w 27 calach. Jak zobaczyłem 2K w 32 calach, to napiszę tak dla mnie to pixeloza :E

Oczywiście zdaję sobie sprawę że jak ktoś nie miał nie grał w 4K (nia na 50 calach, tylko 27-32 powiedzmy) to po "downgradzie" na 2K odczucia są mówiąc delikatnie słabe. Także ja siedzę na swoim monitorze do momentu aż wyjdą jakieś godne monitory 4K 120/144HZ za rozsądne pieniądze 2,5 K powiedzmy. Pewnie jeszcze roczek może dwa.

Edytowane przez dadi82

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja powiem tak, nie raz słyszałem że jak ktoś spróbował 120/144hz to za nic nie wróci do 60hz. Cóż mogę się z tym zgodzić.

Ale podobnie jest 2k vs 4K. Mam monitor 4K już ze 3 lata. Nawet kilka miesięcy temu zastanawiałem się czy nie zmienić na 2K 144HZ.

Ale postanowiłem że nic nie zmieniam. Mam 4K w 27 calach. Jak zobaczyłem 2K w 32 calach, to napiszę tak dla mnie to pixeloza :E

Oczywiście zdaję sobie sprawę że jak ktoś nie miał nie grał w 4K (nia na 50 calach, tylko 27-32 powiedzmy) to po "downgradzie" na 2K odczucia są mówiąc delikatnie słabe. Także ja siedzę na swoim monitorze do momentu aż wyjdą jakieś godne monitory 4K 120/144HZ za rozsądne pieniądze 2,5 K powiedzmy. Pewnie jeszcze roczek może dwa.

 

Kolego, nie wiem w co grasz i jakie masz wymagania odnośnie sprzętu, ale wykorzystywane 144hz (nawet ok100) 2k > 60hz 4k. Grałem w Wiedźmina na monitorze 4k przy około 50-60fps i widziałem cholernie rozmazany obraz przy bardziej dynamicznych akcjach. Rzadko która gra polega na wiecznym staniu i podziwianiu widoków w 4k... chyba nawet takiej nie znam.

Liczy się bardzo płynna rozrywka, która nie irytuje żadnym większym spadkiem klatek, przy świetnej jakości jaka jest 1440p. Żeby widzieć piksele w tej rozdzialce na 27 calach musiałeś siedzieć 20cm od ekranu wspomagając się lupą.

 

Jeżeli jednak jesteś entuzjasta gier karcianych na PC to bardzo przepraszam, 4k 60hz wygrywa bezapelacyjnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na monitorze 4k można grać w 1440p i zastosować filtr wyostrzający Nvidii/AMD/Reshade i prawie nie będzie różnic względem natywnego 4k.

 

Bez ofensywy, ale to chyba największa bzdura z jaką spotkałem się w tym roku na forum, a to już wrzesień.

 

Oczywiście, że jest różnica i to ogromna. Sprawdzałeś sam czy powtarzasz głupoty, które przeczytałeś na internecie? Wyostrzanie to zwykły postproces, który w żaden sposób nie zwiększa szczegółowości obrazu, tekstur. Często wygląda nienaturalnie i wręcz psuje odbiór wizualny gier, zamiast w czymkolwiek pomagać. Wyostrzanie to można sobie włączyć w natywnej rozdzielczości, jeśli chcesz podkreślić widoczność krawędzi, ale najczęściej nie ma takiej potrzeby. Nie wiem skąd ta wiara w jakieś czary-mary, że w prosty sposób da się oszukać oczy i udawać, że gra się w wyższej rozdzielczości.

 

Nvidia przez długi czas próbowała udawać, że DLSS pozwala na takie oszustwo przy wygładzaniu krawędzi i wyostrzaniu obrazu. Efekty każdy widział. Dopiero teraz poprawili trochę algorytmy uczące i tensory zaczynają ingerować w inne elementy na klatce, oprócz krawędzi. Tyle, że nadal nie przypomina to rozdzielczości natywnej. Co najwyżej wygląda trochę lepiej od tej, w której rzeczywiście renderujemy obraz. A ty tutaj piszesz o samym wyostrzaniu. szczerbaty.gif

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sprawdzałem sam, ale w scenariuszu 1080p na ekranie 1440p. I uwierz mi, szczegóły na teksturach w miarę przesuwania suwaka wręcz magicznie się wyłaniają. Mówię o filtrze Nvidii akuratnie. Na ustawieniu 100% są już artefakty i obraz wygląda nienaturalnie, ale na niższym da się grać.

Być może na monitorze 4k wygląda to inaczej, tutaj moja wiedza ogranicza się do analiz Hardware Unboxed.

I powtarzam, to jest półśrodek obarczony kompromisami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko, jaki sens ma granie w 4K przy 45-60 klatkach? Toż dużo lepszy efekt wizualny będzie przy monitorze 2k z 144 Hz, gdzie przy tych samych kosztach sprzętu wyciśnie się 80-100 klatek i przy wyższym odświeżaniu obraz będzie bardzo ostry a do tego bardzo płynny. Szczerze mówiąc, to dopóki monitory 4K z odświeżaniem 144Hz nie staną się standardem, a GPU bez krztuszenia się będą w stanie wygenerować te 80-100 klatek na takim wyświetlaczu, to pakowanie się w 4K jest po prostu bez sensu.

 

To zależny jakie gry i czego się oczekuje.

 

Jeśli ma to być monitor 27 cali a gry to jakieś FPS-y to tak, 4k nie ma sensu.

Jeśli monitor ma być duży, np philips momentum 43 a gry to jakieś strategie czy RPG-i to jest to opcja bardzo dobra. Do tego płynność znacznie poprawia G-Sync/FreeSync.

 

Ja pod koniec zeszłego roku kupowałem RTX 2070 do philips momentum 43 i ogólnie jestem zadowolony z tego połączenia. Ale ja w FPS-y nie gram. Niemniej jednak niedawno wymieniałem procesor i już zaczynam odkładać na nową kartę, jakiegoś RTX 2080 ti ale pewnie przeczekam do serii 3000.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sprawdzałem sam, ale w scenariuszu 1080p na ekranie 1440p. I uwierz mi, szczegóły na teksturach w miarę przesuwania suwaka wręcz magicznie się wyłaniają. Mówię o filtrze Nvidii akuratnie. Na ustawieniu 100% są już artefakty i obraz wygląda nienaturalnie, ale na niższym da się grać.

Na teksturach wyostrza się tylko to co i tak było już na nich widać, tyle że wraz ze skalą sharpeningu pewne elementy zaczynają być coraz bardziej widoczne. Dlatego jak dasz na 100% to wygląda jakby były artefakty, ale to nie są artefakty, tylko dysbalans pomiędzy wyostrzonymi elementami a tłem. Nie da się w 1440p odzyskać szczegółów obrazu z 4K. Jedyna droga to AI, ale nie mamy jeszcze takich możliwości, a już na pewno nie jest to DLSS. Tak samo jest ze 1080p i 1440p.

 

Gram w 4K już od półtora roku i eksperymentowałem na różne sposoby, próbowałem wszelkich technicznych nowinek mających rzekomo poprawić jakość obrazu w niższych rozdzielczościach. Ale to po prostu nie ma prawa działać. Nie ma innego sposobu na szczegółowy obraz, niż granie w natywnej rozdzielczości. I nigdy nie powinno się schodzić poniżej. Jeśli nie możemy grać na monitorze 4K, to kupmy 1440p. Wyjdziemy na tym o wiele lepiej i obejdziemy się bez mydła i licznych przekłamań graficznych. Monitorów nie wymienia się tak często, to fakt. Ale nie wyobrażam sobie przesiedzieć 2-3 lata grając na niższych rozdzielczościach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Będzie sukcesem jeżeli jakakolwiek technika pomoże zejść do 1800p bez strat w jakości obrazu. Zejście z 2160p do 1800p już daje zauważalnego kopa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko, jaki sens ma granie w 4K przy 45-60 klatkach? Toż dużo lepszy efekt wizualny będzie przy monitorze 2k z 144 Hz, gdzie przy tych samych kosztach sprzętu wyciśnie się 80-100 klatek i przy wyższym odświeżaniu obraz będzie bardzo ostry a do tego bardzo płynny. Szczerze mówiąc, to dopóki monitory 4K z odświeżaniem 144Hz nie staną się standardem, a GPU bez krztuszenia się będą w stanie wygenerować te 80-100 klatek na takim wyświetlaczu, to pakowanie się w 4K jest po prostu bez sensu.

Jak to jaki jest sens :hmm: Osobiście wolę 4K i 60 klatek niż, 1440p i 144 klatki, i dla mnie stałe 60 w 4K jest o niebo lepsze wizualnie, niż niższa rozdzielczość, więcej klatek, ale co kto woli. Mam wrażenie, że większość ludzi mówiących, że 4K jest bez sensu, nie widziało tego na własne oczy. I wszystko zależy tez od wielkości ekranu. Gdybym miał grać na 27" "monitorku" w 4K i szukać jeszcze kompromisów w ustawieniach, to może bym wybrał 27" 1440p. Ale 4K na dużym wyświetlaczu, jakimś monitorze Philips Momentum 43", lub TV 55", 65" gdzie TV obecnie do gier są lepsze od monitorów, to wtedy dopiero jest 4K, i nawet 240 fpsów może się schować.

 

Ale ile jest obecnie dostępnych monitorów 4K z odświeżaniem ~100hz? W jakich cenach? Nawet jak kupi się monitor 4K i chce się grać w 2K (co jest kompletnie bez sensu) to i tak większość ma odświeżanie 60Hz a porządny 1440p zjada je na śniadanie. O 4K na konsolach nie mówmy, bo miałem PS4 Pro przez 2 miesiące żeby ograć kilka tytułów i jakość wyświetlanego obrazu to jest dramat. Konsolę oddałem w cholerę i więcej nie chcę mieć z tym nic wspólnego. To jest dobre urządzenie dla ludzi mających 2000 zł i chcących pograć a równocześnie nie mających większych wymagań odnośnie grafiki i płynności. Nawet mając kasy jak lodu to 4K dalej jest bez sensu bo wkładając 2x2080Ti dalej jakość obrazu nawet na monitorze 4k 144hz będzie gorsza od 1440p ze względu na niemożliwość wygenerowania 100 klatek. Oczywiście mówimy o grach wymagających nie tytułach e-sportowych. Realnie patrząc na tą chwilę 2K 144Hz to najlepsza możliwa opcja.

Prawdziwe Exy na PS4 Pro wyglądają rewelacyjnie, ale mówię tutaj tylko o flagowch exach, patrząc na to co siedzi w środku, czasami się wierzyć nie chcę co z tego wykrzesali, ale mowa o tych flagowych exach, nie grach multiplatformowych.

 

Co do jakości obrazu, to chyba mylisz pojęcia i tylko fpsy się liczą. Jak obraz w natywnym 4K może być gorszy od 1440p, tylko dlatego, że nie wygenerujesz 100 klatek :E Ja rozumiem, że każdy ma swoje priorytety, ale dla mnie jest na odwrót 4K@60>1440p120. Z drugiej strony, zawsze jest tak, że jak się przesiadamy na coś lepszego, to później się dziwimy, jak mogliśmy grać na tym do tego pory. Na przykład przesiadka z 1080p na 1440p, 60Hz na 144Hz, później wręcz ciężko wrócić. Ale w wypadku wyboru prawdziwego 4K@60 klatek, czy 1440p@144 klatki, ktoś kto piszę, że lepsza jest druga opcja, albo nie ważna jest dla niego jakość obrazu, liczą się tylko fpsy, albo 4K na oczy nie widział, posiada 1440p i wydaje mu się, że więcej nie potrzeba ;) 4K w stosunku do 1440p wygląda o wiele, wiele lepiej, tak jak 1440p w stosunku do 1080p. To tylko moje zdanie, ale zawsze będę wolał jakość i wyższą rozdzielczość, niż klatki i wybiorę 4K@60 niż 1440p@144. Tak samo jakbym miał wybierać 1440p@60 jest dużo lepsze od 1080p@144. Ale to moje zdanie, nie gram też w żadne sieciowe FPSy, głównie singiel player, i nikt mnie nie przekona, a robiłem wiele prób, że więcej klatek a mniejsza rozdzielczosc jest lepsza niż, 4K i 60, najgorsze są spadki, dlatego jak nie mamy G-Sync/ Frysync trzeba zrobić tak, żeby klatki były stałe.

Edytowane przez skunRace

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja też dołączam do bojówki 4k i uważam, że na 1080ti/2080 można wypracować dobry kompromis przy graniu w 4k/60 fps, zwłaszcza z g-synciem. Miałem 32" cale w 1440p oraz 4k i zdecydowanie wybieram 4k przy obniżeniu detali, albo i zejściu do 1800p niż 1440p. Oczywiście jak ktoś 90% czasu gra w counter-strika czy inne tego typu gry to dla większej przyjemności lepiej zainwestować w te 144 hz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Daję radę na podkręconym RTX 2070, optymalizacja detali + sync, czasami w najbardziej wymagających grach ~1800p.

1080p to już relikt przeszłości, 1440p to tylko taki półśrodek i daleko mu do jakości obrazu w 4k.

 

No, ale jak ktoś tłucze multi/online to inna sprawa.

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przydałoby się sprostować parę głupot które tu padły:

 

1. 2K to nie 1440p

2. Hz nie nadrobimy rozdzielczości

 

 

co do merytorycznych wywodów:

 

1. przy 4k będzie się dławić i 1080ti i 2070S (osobiście 2070S dławię w głupię UT przy fastsyncu i 120 FPS - epic nie daje rady)

2. dlaczego 4k a nie 1440p? mas już monitor? jak nie to jaki masz budżet

3. mam 1440p na 32" w 75Hz i to jest baja (porównuję do 4K 28-29")

 

co do zmian rozdziałek na niższe niż natywna - też uważam, że to zła opcja.

zresztą po co wydawać duzą kasę na monitor którego nie ejsteśmy w stanie ogarnąc sprzetem ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...