Skocz do zawartości
maxoff

Grafa do 4K

Rekomendowane odpowiedzi

Nie ma innego sposobu na szczegółowy obraz, niż granie w natywnej rozdzielczości.

2560x1440 na ekranie 4K i tak wygląda lepiej, niż 1920x1080 na ekranie FHD (mowa o grach oczywiście).

 

zresztą po co wydawać duzą kasę na monitor którego nie ejsteśmy w stanie ogarnąc sprzetem ?

Poza graniem na komputerze można robić też inne rzeczy, np. czytać tekst na stronach WWW ... a tutaj 4K rządzi w porównaniu do QHD, a ogarnie to nawet słaba karta graficzna (GT 1030? RX550?). Poza tym jedne gry mają większe wymagania , a inne mniejsze - w jednych można grać w 4K, a w innych 2560x1440. Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2560x1440 na ekranie 4K i tak wygląda lepiej, niż 1920x1080 na ekranie FHD (mowa o grach oczywiście).

 

Poza graniem na komputerze można robić też inne rzeczy, np. czytać tekst na stronach WWW ... a tutaj 4K rządzi w porównaniu do QHD, a ogarnie to nawet słaba karta graficzna (GT 1030? RX550?). Poza tym jedne gry mają większe wymagania , a inne mniejsze - w jednych można grać w 4K, a w innych 2560x1440.

 

Czytać tekst na stronach WWW w 4K? Fantazja już niektórych ponosi.

mam 1440p w 32" i nie wiem jaki rozmiar tekstu trzeba ustawiać żeby było nieczytelnie :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czytać tekst na stronach WWW w 4K? Fantazja już niektórych ponosi.

mam 1440p w 32" i nie wiem jaki rozmiar tekstu trzeba ustawiać żeby było nieczytelnie :D

Chodzi pewnie o gładkość czcionek. Miałem porównanie jak siedziałem przy monitorze FHD w pracy. Tam czasami było aż widać piksele. Przy 4K wszystko jest gładziutkie. Nie wiem jak jest przy 1440p, pewnie podobnie, o ile ograniczymy się do 27". 32" to już dla mnie za dużo dla 1440p i wtedy tracimy wszystkie zalety wysokich rozdzielczości.

 

2560x1440 na ekranie 4K i tak wygląda lepiej, niż 1920x1080 na ekranie FHD (mowa o grach oczywiście).

No nie do końca. Rozdzielczość która nie jest natywna nigdy nie będzie wyglądać dobrze bez integer scaling. A to, że FHD na ekranie 27" wzwyż wygląda tragicznie to już inna sprawa. 2560x1440 na ekranie 4K 32" nigdy nie będzie wyglądać lepiej niż np. FHD na 24", więc to co tu napisałeś to za duże uogólnienie. Poza tym wiele zależy od skalera wbudowanego w monitor, bo przy schodzeniu z 3840x2160 do 2560x1440 nie działa integer scaling, więc w większości przypadków będzie ładne mydełko. ;)

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi pewnie o gładkość czcionek. Miałem porównanie jak siedziałem przy monitorze FHD w pracy. Tam czasami było aż widać piksele. Przy 4K wszystko jest gładziutkie. Nie wiem jak jest przy 1440p, pewnie podobnie, o ile ograniczymy się do 27". 32" to już dla mnie za dużo dla 1440p i wtedy tracimy wszystkie zalety wysokich rozdzielczości.

 

 

No nie do końca. Rozdzielczość która nie jest natywna nigdy nie będzie wyglądać dobrze bez integer scaling. A to, że FHD na ekranie 27" wzwyż wygląda tragicznie to już inna sprawa. 2560x1440 na ekranie 4K 32" nigdy nie będzie wyglądać lepiej niż np. FHD na 24", więc to co tu napisałeś to za duże uogólnienie. Poza tym wiele zależy od skalera wbudowanego w monitor, bo przy schodzeniu z 3840x2160 do 2560x1440 nie działa integer scaling, więc w większości przypadków będzie ładne mydełko. ;)

 

To wiesz, czy nie wiesz?

Bo ja to kocham teoretyzowanie.

1440p w 31,5" dokładnie jest idealne zarówno do pracy - bo pracuję na komputerze, jak i gier :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miałem twój monitor w wersji VA i 1440p w 32" jest dalekie od ideału ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To wiesz, czy nie wiesz?

Bo ja to kocham teoretyzowanie.

1440p w 31,5" dokładnie jest idealne zarówno do pracy - bo pracuję na komputerze, jak i gier :)

Dla mnie to już za mała rozdzielczość w stosunku do wielkości ekranu, albo siedzisz daleko od tego monitora, gdzie też dużo się traci. 1440p powyżej 27" traci sens i moim zdaniem jest dokładnie tak jak pisze Isharoth i Mackay22. Zobacz sobie jaką masz wielkość plamki na 32", zaczyna się robić trochę jak 27" FHd. Dla mnie 1440p jest idealne do 27" powyżej to już 4K.

Edytowane przez skunRace

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To wiesz, czy nie wiesz?

Bo ja to kocham teoretyzowanie.

1440p w 31,5" dokładnie jest idealne zarówno do pracy - bo pracuję na komputerze, jak i gier :)

Pomimo plamki o tym samym rozmiarze co 24" 1080p na 31.5 1440p miałem mniej ostrą czcionkę, ale to też może być kwestia samej matrycy.

 

Osobiście nie polecam 31.5" 1440p widać więcej dlatego aliasing znacznie bardziej rzuca się w oczy niż na 24" 1080p.

 

Różnice między 32" 2160p i 27/34 1440p w aliasingu i ostrości nie są duże.

 

1440p na monitorze 2160p wygląda słabo i trzeba mieć nieźle zjechany focus w gałach by na czymś takim pracować lub grać wink.gif

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To wiesz, czy nie wiesz?

Bo ja to kocham teoretyzowanie.

1440p w 31,5" dokładnie jest idealne zarówno do pracy - bo pracuję na komputerze, jak i gier :)

Przecież wystarczy, że wiem jak wygląda dane PPI. Nie muszę tego testować koniecznie na tej samej rozdzielczości. 92 PPI to dla mnie za mało. Obecnie siedzę na 140 PPI, a ~110 to dla mnie minimum.

2560x1440 32" to jest to samo co 1920x1080 na 24". Nie widzę sensu przechodzenia na wyższą rozdzielczość, co wiąże się z większym zapotrzebowaniem na wydajność, tylko po to żeby wziąć większy monitor, a szczegółowość obrazu tą samą. Oczywiście to tylko i wyłącznie moja osobista opinia, nie próbuje tutaj udowodnić, że ja mam rację a ty nie. Po prostu napisałem, że dla mnie 1440p na 32" to za mało.

Zresztą po tym jak przez tyle czasu użytkowałem monitor z 140 PPI i tak nie chciałbym już schodzić niżej.

 

1440p na monitorze 2160p wygląda słabo i trzeba mieć nieźle zjechany focus w gałach by na czymś takim pracować lub grać wink.gif

Tak jak pisałem. Najczęściej jest mydełko. :) Pakowanie się w monitor z wysoką rozdzielczością tylko po to, żeby potem ją zmniejszyć to jest najgorsza możliwa inwestycja przy zakupie monitora.

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież wystarczy, że wiem jak wygląda dane PPI. Nie muszę tego testować koniecznie na tej samej rozdzielczości. 92 PPI to dla mnie za mało. Obecnie siedzę na 140 PPI, a ~110 to dla mnie minimum.

2560x1440 32" to jest to samo co 1920x1080 na 24". Nie widzę sensu przechodzenia na wyższą rozdzielczość, co wiąże się z większym zapotrzebowaniem na wydajność, tylko po to żeby wziąć większy monitor, a szczegółowość obrazu tą samą. Oczywiście to tylko i wyłącznie moja osobista opinia, nie próbuje tutaj udowodnić, że ja mam rację a ty nie. Po prostu napisałem, że dla mnie 1440p na 32" to za mało.

Zresztą po tym jak przez tyle czasu użytkowałem monitor z 140 PPI i tak nie chciałbym już schodzić niżej.

To nie tylko Twoja , czy moja osobista opinia, ale to są fakty. Jak widać niektórzy w tym wątku, jakość obrazu postrzegają jako ilość Fpsów :E Niektórzy jako wielkość przekątnej, ale tak naprawdę liczy się tylko i wyłącznie wielkość plamki i odległość ekranu do nas. Nic innego nie ma znaczenia, dla kolegi yampik 32"@1440p jest bajką, ale jeśli chodzi o jakość obrazu, to równie dobrze mógłby siedzieć na 24 FHd, robotę robi tylko i wyłącznie przekątna, a nie jakosc obrazu. Natywne 4K to natywne 4K, jeśli ktoś twierdzi inaczej to na oczy nie widział 4K. Tak samo jak z HDR, niby na co to komu, ale jak się naprawdę zobaczy dobrze zaimplementowany HDR w grze , a do tego ma wyświetlacz, od przynajmniej 600 nitów w górę, szybko zmienia się zdanie ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czytać tekst na stronach WWW w 4K? Fantazja już niektórych ponosi.

mam 1440p w 32" i nie wiem jaki rozmiar tekstu trzeba ustawiać żeby było nieczytelnie :D

Też nie wiem, bo mam skalowanie systemowego DPI na 180%, dzięki czemu litery są duże i ostre, a do tego niepostrzępione, jak przy 2560x1440 na 31,5" - witamy w 2019r, gdzie skaluje się interface, a nie 1999, gdzie się tego jeszcze nie robiło.

 

No nie do końca. Rozdzielczość która nie jest natywna nigdy nie będzie wyglądać dobrze bez integer scaling.

Postaw obok siebie 31,5" 1920x1080 i 31,5" 3840x2160. Na pierwszym (FHD) odpal 1920x1080, a na drugim (4K) odpal 2560x1440 . Skalowane 2,5K na 4K i tak lepiej wygląda od natywnego 1080p. W sumie to zadziwiająco dobrze wygląda. I nie jest to tylko moje doświadczenie. Oczywiście mowa o grach, a nie pulpicie i czcionkach. Na pulpicie wymagana precyzja jest znacznie większa, by literki były ostre i bez pikselozy (tutaj natywne 2560x1440 na 31,5" jest nawet za słabe).

 

1440p na monitorze 2160p wygląda słabo i trzeba mieć nieźle zjechany focus w gałach by na czymś takim pracować lub grać wink.gif

Na pulpicie wygląda słabo, ale w grach wygląda i tak lepiej, niż natywne 1080p :lol2: Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak widać niektórzy w tym wątku, jakość obrazu postrzegają jako ilość Fpsów  :E

W pewnym sensie fps, a właściwie odświeżanie ekranu też wpływa na jakość obrazu.

Rozdzielczość ekranu - szczegółowość obrazu statycznego i dynamicznego (tego drugiego przy założeniu że mamy wyższe odświeżanie)

Odświeżanie ekranu - szczegółowość obrazu dynamicznego

 

Natywne 4K to natywne 4K, jeśli ktoś twierdzi inaczej to na oczy nie widział 4K. Tak samo jak z HDR, niby na co to komu, ale jak się naprawdę zobaczy dobrze zaimplementowany HDR w grze , a do tego ma wyświetlacz, od przynajmniej 600 nitów w górę, szybko zmienia się zdanie ;)

Na internecie możesz znaleźć pełno materiałów, gdzie przedstawia się takie rzeczy jak "sharpening" jako coś niezwykłego, coś co zwiększa jakość obrazu. Takie materiały się klikają i to jest jedyny ich cel. Nie edukowanie, a zbieranie wyświetleń. A to dlatego, że spora część globu nie ma jednak sprzętu pozwalającego na granie w 4K czy nawet 1440p. Szukają więc sobie czegoś, czym mogą taką rozdzielczość zastąpić, nie wiedząc, że nie da się tego zrobić. ;) Nvidia też się do tego przyłożyła przez długi czas oszukując, że DLSS w jakikolwiek sposób rekonstruuje obraz z niższej rozdzielczości, podczas gdy jedyne co ta technika robiła to obniżenie rozdzielczości renderowania + wygładzenie krawędzi poprzez Tensory + sharpening. Dopiero teraz, chyba od premiery Control, zaczęli coś mieszać i szczegółowość lekko wzrasta. Ale to nawet nie ma podejścia do natywnej rozdzielczości.

 

Skoro Nvidia nie może osiągnąć takiego efektu przez rekonstrukcję i antyaliasing z modelu sporządzonego przez AI + sharpening, to skąd pomysł, że wystarczy sam sharpening? ;) Oczywiście mądrze użyty sharpening czasami ma sens, ale używa się go w natywnej rozdzielczości i tylko leciutko uwydatnia krawędzie. W innym wypadku mamy przekłamany, nienaturalny obraz.

 

Też nie wiem, bo mam skalowanie systemowego DPI na 180%, dzięki czemu litery są duże i ostre, a do tego niepostrzępione, jak przy 2560x1440 na 31,5" - witamy w 2019r, gdzie skaluje się interface, a nie 1999, gdzie się tego jeszcze nie robiło.

Ja w 4K 31,5" mam na 150%. Idealna równowaga pomiędzy wielkością tekstu, a przestrzenią roboczą. No i programów, które mają problemy ze skalowaniem jest coraz mniej. Nawet nie pamiętam kiedy ostatnio na taki trafiłem.

 

Postaw obok siebie 31,5" 1920x1080 i 31,5" 3840x2160. Na pierwszym (FHD) odpal 1920x1080, a na drugim (4K) odpal 2560x1440 . Skalowane 2,5K na 4K i tak lepiej wygląda od natywnego 1080p. W sumie to zadziwiająco dobrze wygląda. I nie jest to tylko moje doświadczenie. Oczywiście mowa o grach, a nie pulpicie i czcionkach. Na pulpicie wymagana precyzja jest znacznie większa, by literki były ostre i bez pikselozy (tutaj natywne 2560x1440 na 31,5" jest nawet za słabe).

 

Na pulpicie wygląda słabo, ale w grach wygląda i tak lepiej, niż natywne 1080p  :lol2:

1920x1080 na 31,5" to pikseloza. Wczoraj w W3 odpaliłem sobie integer scaling Nvidii (bo chyba jednak mój monitor w ten sposób nie skaluje) na 1920x1080 i zobaczyłem duże piksele. szczerbaty.gif Różnica taka, że przy FHD odsuniesz się od takiego ekranu i obraz będzie wyglądał naturalnie, nawet całkiem dobrze. A przy zejściu do 2560x1440, gdzie nie ma integer scaling, więc wszystko zaczyna się rozmazywać i pojawiają się już lekkie deformacje.

 

Swoją drogą naprawdę polecam pobawić się integer scaling i nawet umyślnie włączać w niektórych grach niską rozdzielczość, oczywiście odpowiednio skalującą się z waszą natywną. Efekt jest bardzo ciekawy, z każdej nowej gierki można sobie zrobić retro. bigsmile.gif

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Grając w natywnym 4k trzeba mieć nie lichy sprzęt,minimum to takie 1080ti[i tak trzeba schodzić z ustawień]np.I wypadałoby mieć coś dużo szybszego jak np ryzen 1600.

 

Ale to tylko moje zdanie.Nie warto się w to pchać w sensie monitor 4k gdzie reszta kompa jest słaba,i trzeba schodzić z natywnej rozdzielczości[albo o zgrozo jeszcze z ustawię grafiki dodatkowo].

 

Ja tam gram na 1440p 27,jak zachce sobie prawdziwe 4k to,kupie sobie takowy monitor.Bo jeśli chodzi o pc to spokojnie ogarnę te 4k w samej kwestii gpu/.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tam gram na 1440p 27,jak zachce sobie prawdziwe 4k to,kupie sobie takowy monitor.

No i racja. Nie ma sensu kupować monitora o rozdzielczości wyższej niż ta w której jesteśmy w stanie komfortowo grać. Kupić monitor na przyszłość i przez rok grać na nienatywnej rozdzielczości i męczyć się? Zdecydowanie nie. Lepiej kupić monitor na teraz, a potem go najwyżej sprzedać i kupić lepszy.

 

Ja akurat kupiłem monitor 4K na długo przed zakupem nowego kompa (jakieś pół roku), ale grałem przez tamten czas tylko w starsze gry.

 

OP może kupić 1080Ti i iść w niektórych grach na kompromis tak jak ja to robię, bo taka karta do 4K zdecydowanie wystarczy, przynajmniej na dziś. Może też dozbierać trochę kasy, przeczekać z rok i wtedy kupić kartę z nowej serii + jakiś fajny monitor. W przypadku 1080Ti trzeba tylko wziąć pod uwagę, że nie zawsze zagra na ultra detalach. Tylko czy ultra ma sens? W większości przypadków nie. bigsmile.gif

 

Bo jeśli chodzi o pc to spokojnie ogarnę te 4k w samej kwestii gpu/.

Wyższa rozdzielczość nie zwiększa wymagań co do CPU, tak więc jeśli spokojnie ogarniasz 4K w kwestii GPU to ogarniasz 4K ogólnie. ;) Ważne, żeby CPU + RAM potrafiło wykręcić ponad 60 klatek w jakiejkolwiek rozdzielczości bez spadków.

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i racja. Nie ma sensu kupować monitora o rozdzielczości wyższej niż ta w której jesteśmy w stanie komfortowo grać.

.. no chyba, że granie nie jest dla kogoś wszystkim co robi na PC. Z drugiej strony dochodzi jeszcze kwestia ogromnej różnicy wymagań między grami, szczególnie jak popatrzymy na wszystkie gry, czyli wliczając też te starsze. Efekt potrafi być taki, że jedne klatkują w 1920x1080, a inne płyną w 3840x2160.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyższa rozdzielczość nie zwiększa wymagań co do CPU, tak więc jeśli spokojnie ogarniasz 4K w kwestii GPU to ogarniasz 4K ogólnie. ;) Ważne, żeby CPU + RAM potrafiło wykręcić ponad 60 klatek w jakiejkolwiek rozdzielczości bez spadków.

Niby nie zwiększa bo ma to samo do roboty czy to 1080p,czy 4k. Ale uważam jeśli ktoś decyduje się na kartę klasy np:2070 super.

To i cpu ma porządnego który by nie hamował dany zestaw i by robił by te 60 fps[w miejscach procesorowych].A nie pchał byle jaki cpu,bo taniej ;).

 

Co do wymagań 4k w kwestii gpu jeśli przykładowo:2szt 2080ti nvlink,było by za mało to ja nie wiem co by wystarczyło. :E.A Miałem i spokojnie wystarcza,nawet na wyższe rozdziałki jak bidne 4k[w tym momencie].

 

A prywatnie siedzę na 1440p z własnego wyboru/nie jak wielu ludzi np: siedzi na 1080p[a czasami nawet niektórzy na 1680x1050 circa 21-24R,znam kilku którzy pracują i grają na tej rodziałce]bo sprzęt nie domaga i nie ma wyboru przeważnie.

 

Dlatego Trzeba pytać na forum jeśli ktoś czuję się gotowy[także finansowo] na te magiczne dla wielu 4k

Edytowane przez kosiarz66

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GTX 1070/1080 daje radę pograć w 4K@30 na kanapie z padem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z góry przepraszam, bo nie chce mi się czytać ałego wątku bo sporo w nim szitsztormu, ale podłączałem nawet kompa z sygny do TV 4k i - oczywiście - RX 570 to mało, ALE! Raz, że 3200x1800 wyglądało tak, że ciężko było odróżnić, a dawało prawie 1/3 więcej klatek, dwa że po przycięciu detali też uważam, że GPU klasy tak od 1070 wzwyż się nada. A opad szczęki ze wzgledu na liczbę detali adekwatną do wielkości ekranu u mnie był.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miałem twój monitor w wersji VA i 1440p w 32" jest dalekie od ideału ;)

 

nie porównujmy monitorów na róznych matrycach - bo to bez sensu...

miałem VA i nikomu jej nie polecam.

 

Dla mnie to już za mała rozdzielczość w stosunku do wielkości ekranu, albo siedzisz daleko od tego monitora, gdzie też dużo się traci. 1440p powyżej 27" traci sens i moim zdaniem jest dokładnie tak jak pisze Isharoth i Mackay22. Zobacz sobie jaką masz wielkość plamki na 32", zaczyna się robić trochę jak 27" FHd. Dla mnie 1440p jest idealne do 27" powyżej to już 4K.

 

czyli 1440p to rozdz do 27 :)

ja rozumiem, że na FHD w 27" jest dramat - bo to widać.

 

nie wiem kto z Was widzi kosmiczną różnicę na 28-29" pomiędzy 4K a 1440p... ale ok

 

do tego dyskutowaliśmy tu o grywalności w 4K na 1080ti i 2070s.

tu zaraz ktoś napisze, że trzyma 30FPS to jest ok :)

Przecież wystarczy, że wiem jak wygląda dane PPI. Nie muszę tego testować koniecznie na tej samej rozdzielczości. 92 PPI to dla mnie za mało. Obecnie siedzę na 140 PPI, a ~110 to dla mnie minimum.

2560x1440 32" to jest to samo co 1920x1080 na 24". Nie widzę sensu przechodzenia na wyższą rozdzielczość, co wiąże się z większym zapotrzebowaniem na wydajność, tylko po to żeby wziąć większy monitor, a szczegółowość obrazu tą samą. Oczywiście to tylko i wyłącznie moja osobista opinia, nie próbuje tutaj udowodnić, że ja mam rację a ty nie. Po prostu napisałem, że dla mnie 1440p na 32" to za mało.

Zresztą po tym jak przez tyle czasu użytkowałem monitor z 140 PPI i tak nie chciałbym już schodzić niżej.

 

 

Tak jak pisałem. Najczęściej jest mydełko. :) Pakowanie się w monitor z wysoką rozdzielczością tylko po to, żeby potem ją zmniejszyć to jest najgorsza możliwa inwestycja przy zakupie monitora.

 

Nie ogarniam tego toku myślenia.

Sprzęt bierze się dla rozmiaru (który pasuje do pokoju/odległości od niego itp) i dopasowuje dla niego rozdzielczość dającą zadowalający efekt.

Monitor jest świetny do pracy bo daje obszar sporo większy niż 24" (przy 31,5") przy zachowaniu tej samej jakości.

 

To tak jak z TV. Kupujesz 32" - to wypadałoby żeby był FHD a nie HD, kupujesz 55" przydałoby się 4K a nie FHD.

 

Kupowanie na wyrost - tj. 27-29" w 4K na których nie wiadać efektu 4K to wywalanie kasy w błoto.

Ładowanie do tego sprzętu który wygenreuje odpowiednią ilość klatek (60) w 4K - to już osoba historia finansowa :)

 

To nie tylko Twoja , czy moja osobista opinia, ale to są fakty. Jak widać niektórzy w tym wątku, jakość obrazu postrzegają jako ilość Fpsów :E Niektórzy jako wielkość przekątnej, ale tak naprawdę liczy się tylko i wyłącznie wielkość plamki i odległość ekranu do nas. Nic innego nie ma znaczenia, dla kolegi yampik 32"@1440p jest bajką, ale jeśli chodzi o jakość obrazu, to równie dobrze mógłby siedzieć na 24 FHd, robotę robi tylko i wyłącznie przekątna, a nie jakosc obrazu. Natywne 4K to natywne 4K, jeśli ktoś twierdzi inaczej to na oczy nie widział 4K. Tak samo jak z HDR, niby na co to komu, ale jak się naprawdę zobaczy dobrze zaimplementowany HDR w grze , a do tego ma wyświetlacz, od przynajmniej 600 nitów w górę, szybko zmienia się zdanie ;)

 

Jakoś a ilość fps t o dwie różne bajki jak pisałem.

z 2m od monitora wisi 55EG920V i testowałem kilka monitorów przed zakupem tego.

 

Grając w natywnym 4k trzeba mieć nie lichy sprzęt,minimum to takie 1080ti[i tak trzeba schodzić z ustawień]np.I wypadałoby mieć coś dużo szybszego jak np ryzen 1600.

 

Ale to tylko moje zdanie.Nie warto się w to pchać w sensie monitor 4k gdzie reszta kompa jest słaba,i trzeba schodzić z natywnej rozdzielczości[albo o zgrozo jeszcze z ustawię grafiki dodatkowo].

 

Ja tam gram na 1440p 27,jak zachce sobie prawdziwe 4k to,kupie sobie takowy monitor.Bo jeśli chodzi o pc to spokojnie ogarnę te 4k w samej kwestii gpu/.

 

Od podobnych założeń zaczynała się ta dyskusja :)

 

No i racja. Nie ma sensu kupować monitora o rozdzielczości wyższej niż ta w której jesteśmy w stanie komfortowo grać. Kupić monitor na przyszłość i przez rok grać na nienatywnej rozdzielczości i męczyć się? Zdecydowanie nie. Lepiej kupić monitor na teraz, a potem go najwyżej sprzedać i kupić lepszy.

 

Ja akurat kupiłem monitor 4K na długo przed zakupem nowego kompa (jakieś pół roku), ale grałem przez tamten czas tylko w starsze gry.

 

OP może kupić 1080Ti i iść w niektórych grach na kompromis tak jak ja to robię, bo taka karta do 4K zdecydowanie wystarczy, przynajmniej na dziś. Może też dozbierać trochę kasy, przeczekać z rok i wtedy kupić kartę z nowej serii + jakiś fajny monitor. W przypadku 1080Ti trzeba tylko wziąć pod uwagę, że nie zawsze zagra na ultra detalach. Tylko czy ultra ma sens? W większości przypadków nie. bigsmile.gif

 

 

Wyższa rozdzielczość nie zwiększa wymagań co do CPU, tak więc jeśli spokojnie ogarniasz 4K w kwestii GPU to ogarniasz 4K ogólnie. ;) Ważne, żeby CPU + RAM potrafiło wykręcić ponad 60 klatek w jakiejkolwiek rozdzielczości bez spadków.

 

dlatego pisałem, że do tego sprżętu to 1440p a nie 4K... ale czepiono się akurat tego, że zaproponowałem 31,5" w 1440p - jakby to było 29" byłoby pewnie ok :D

 

Niby nie zwiększa bo ma to samo do roboty czy to 1080p,czy 4k. Ale uważam jeśli ktoś decyduje się na kartę klasy np:2070 super.

To i cpu ma porządnego który by nie hamował dany zestaw i by robił by te 60 fps[w miejscach procesorowych].A nie pchał byle jaki cpu,bo taniej ;).

 

Co do wymagań 4k w kwestii gpu jeśli przykładowo:2szt 2080ti nvlink,było by za mało to ja nie wiem co by wystarczyło. :E.A Miałem i spokojnie wystarcza,nawet na wyższe rozdziałki jak bidne 4k[w tym momencie].

 

A prywatnie siedzę na 1440p z własnego wyboru/nie jak wielu ludzi np: siedzi na 1080p[a czasami nawet niektórzy na 1680x1050 circa 21-24R,znam kilku którzy pracują i grają na tej rodziałce]bo sprzęt nie domaga i nie ma wyboru przeważnie.

 

Dlatego Trzeba pytać na forum jeśli ktoś czuję się gotowy[także finansowo] na te magiczne dla wielu 4k

 

U mnie też rozsądek. 2070S to nie karta do 4K.

Jak do pracy to nie dyskutuję. Podpiąć pod integrę i heja :) Najwyżej youtube się będzie ciać :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie porównujmy monitorów na róznych matrycach - bo to bez sensu...

miałem VA i nikomu jej nie polecam.

W sensie ogólnie VA? Bo VA to całkiem niezłe matryce. Oczywiście zależy od konkretnych modeli, ale czerń robi swoje.

 

nie wiem kto z Was widzi kosmiczną różnicę na 28-29" pomiędzy 4K a 1440p... ale ok

Ja widzę, może nie kosmiczną ale sporą. To źle? Ty nie widzisz. I kto ma racje, kto ma o tym decydować? ;)

 

do tego dyskutowaliśmy tu o grywalności w 4K na 1080ti i 2070s.

tu zaraz ktoś napisze, że trzyma 30FPS to jest ok :)

Już ktoś napisał. bigsmile.gif Co do grywalności na 1080Ti... Mam 2080, obecnie jest trochę szybsza za sprawą wsparcia w sterach, ale spokojnie starczy do 4K w dzisiejszych grach. Czy trzeba koniecznie grać w ultra detalach, czy czasem jednak lepiej zwiększyć rozdzielczość? Na to pytanie każdy powinien odpowiedzieć sobie sam, bo każdy ma inne priorytety. Moim zdaniem w większości gier pomiędzy ustawieniami high a ultra nie ma większej różnicy i jest to celowy zabieg twórców. Za to w wydajności różnica już jest. Jedyna gra w której do tej pory miałem problem utrzymać stałe 60 fps w 4K to AC:Odyssey. Ale optymalizacja gier Ubi leży i kwiczy. Trzeba też wziąć pod uwagę, że 1080Ti i 2080 mogą wystarczyć na dziś, ale za rok sytuacja się zmieni i trzeba będzie kupić nową kartę.

 

Nie ogarniam tego toku myślenia.

Sprzęt bierze się dla rozmiaru (który pasuje do pokoju/odległości od niego itp) i dopasowuje dla niego rozdzielczość dającą zadowalający efekt.

Monitor jest świetny do pracy bo daje obszar sporo większy niż 24" (przy 31,5") przy zachowaniu tej samej jakości.

 

To tak jak z TV. Kupujesz 32" - to wypadałoby żeby był FHD a nie HD, kupujesz 55" przydałoby się 4K a nie FHD.

Do tej pory napisałeś dokładnie to samo co ja, więc nie ogarniam czego ty nie ogarniasz. :)

 

Kupowanie na wyrost - tj. 27-29" w 4K na których nie wiadać efektu 4K to wywalanie kasy w błoto.

Ale tu zdecydowanie się nie zgadzam. Niby czemu na 27-29" nie widać "efektu 4K"? Nadal widać. Tyle że po przekroczeniu pewnej granicy PPI odczuwalna różnica będzie coraz mniejsza, na podobnej zasadzie jak to jest z odświeżaniem ekranu. Mam 31,5" 4K i jestem przekonany, że przy jeszcze większym zagęszczeniu pikseli nadal widziałbym korzyści.

 

Poza tym nie pisałem o 27-29" 4K tylko o 27" 1440p, bo 32" dla tej rozdzielczości to dla mnie już trochę za dużo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podpiąć pod integrę i heja :) Najwyżej youtube się będzie ciać :D

W szoku byłem, jak na integrze w i3 8100 jakiś klip z YouTube 8K 60fps chodził płynnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W sensie ogólnie VA? Bo VA to całkiem niezłe matryce. Oczywiście zależy od konkretnych modeli, ale czerń robi swoje.

 

 

Ja widzę, może nie kosmiczną ale sporą. To źle? Ty nie widzisz. I kto ma racje, kto ma o tym decydować? ;)

 

 

Już ktoś napisał. bigsmile.gif Co do grywalności na 1080Ti... Mam 2080, obecnie jest trochę szybsza za sprawą wsparcia w sterach, ale spokojnie starczy do 4K w dzisiejszych grach. Czy trzeba koniecznie grać w ultra detalach, czy czasem jednak lepiej zwiększyć rozdzielczość? Na to pytanie każdy powinien odpowiedzieć sobie sam, bo każdy ma inne priorytety. Moim zdaniem w większości gier pomiędzy ustawieniami high a ultra nie ma większej różnicy i jest to celowy zabieg twórców. Za to w wydajności różnica już jest. Jedyna gra w której do tej pory miałem problem utrzymać stałe 60 fps w 4K to AC:Odyssey. Ale optymalizacja gier Ubi leży i kwiczy. Trzeba też wziąć pod uwagę, że 1080Ti i 2080 mogą wystarczyć na dziś, ale za rok sytuacja się zmieni i trzeba będzie kupić nową kartę.

 

 

Do tej pory napisałeś dokładnie to samo co ja, więc nie ogarniam czego ty nie ogarniasz. :)

 

 

Ale tu zdecydowanie się nie zgadzam. Niby czemu na 27-29" nie widać "efektu 4K"? Nadal widać. Tyle że po przekroczeniu pewnej granicy PPI odczuwalna różnica będzie coraz mniejsza, na podobnej zasadzie jak to jest z odświeżaniem ekranu. Mam 31,5" 4K i jestem przekonany, że przy jeszcze większym zagęszczeniu pikseli nadal widziałbym korzyści.

 

Poza tym nie pisałem o 27-29" 4K tylko o 27" 1440p, bo 32" dla tej rozdzielczości to dla mnie już trochę za dużo.

 

VA w bliźniaczej konstrukcji mojego monitora to masakra.

gorsza jakość (wizualnie) jakby mniejsza rozdz była, + smugi itp.

 

 

 

co do klatek - nie chcę się wdawać w dyskusję, bo nie jestem "niewolnikiem ultra", ale dropów fps nie dopuszczam. więc albo trzyma mi te 60 fps albo nie :) jak nie - to dziękuję.

nie oddam płynności dla rozdzielczości (i nie mówię tu o 120 fpsach czy tam 144Hz ;) )

Edytowane przez yampik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

VA to niestety tragedia. Miałem wcześniej tv sony na matrycy CCFL podpięty do komputera, i ten stary tv miał nieporównywalnie lepszą jakość obrazu (czerń kolory) niż nowy monitor. I nie ważne jaka VA, czy to zwykła czy Samsungowa Qledowa.

 

Mam wrażenie, że w monitorach komputerowych jest totalny zastój, a obraz nie zmienił się wiele wobec tego co było 10 lat temu. Można się brandzlować monitorami 240Hz, tylko co ci po tych parametrach jak obraz jest taki, że chce się płakać.

 

Ponieważ kupiłem ostatnio nowy TV (OLED LG C8), stwierdziłem że testowo podepnę pod niego pieca. Chrystusie niebieski..., wtedy najbardziej dostrzegłem jaki syf jest na monitorach i jak bardzo dymani są konsumenci.. Wokół OLEDów jest dużo hype'u i myślałem, że nic mnie nie zaskoczy a wręcz się rozczaruję. Ale ten TV "zepsuł" mi wszystkie monitory.

 

Prawda jest taka, że dopier na OLEDzie zacząłem widzieć na no nowo gry i jednocześnie boleśnie uświadamiać sobie jak beznadziejne jest 90% monitorów na rynku.

Nawet takie starocie jak Half-Life 2, Dead Space (taa czerń), Bioshock, wyglądają absolutnie niesamowicie. Kolorystyka, przejścia tonalne, ilość detali w ciemnych scenach, jest jakaś taka "soczystość" obrazku, której nie wiem jak nazwać.

 

 

Więc nie dziwię się, że ktoś szuka kart pod 4K, sam jestem przed takim zakupem. Jak się zobaczyło zmodowanego Wieśka3 na oledzie w 4K, to monitory można zostawić do przeglądania excela czy neta :). Ryzyka przepaleń są już znikome, oczywiście mówię tutaj o użytkowaniu OLED'a pod gry, na pewno nie używałbym bym go jako monitor do pracy z programami.

 

Moje marzenie to złożenie dobrego PC, wywalenie monitora i zamontowanie oleda 55 nad biurkiem :)...

 

i zgodzę się tutaj ze skunRace - jeśli mamy dobry tv lub bardzo dobry monitor 4K@60>1440p120. Nie czaję jak można robić zestaw za 6K-7K i wyświetlać obraz na jakimś badziewiu tylko dlatego że ma 120+ fpsów.

 

To mniej więcej tak jakby wydać 10K na podróż na Hawaje i przez cały pobyt siedzieć tam w piwnicy i widoki oglądać przez małe okienko nad chodnikiem... :D

Edytowane przez Ubiq

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam wrażenie, że w monitorach komputerowych jest totalny zastój, a obraz nie zmienił się wiele wobec tego co było 10 lat temu.

Przez ostatnie kilka lat coś ruszyło. Do niedawna nie było LCD mających więcej jak 60Hz (może przez "przypadek" niektóre szły na 75Hz). 10 lat temu najlepsze IPS miały kontrast ~850:1 (EIZO za nie małą kasę), a obecnie są modele na IPS z kontrastem 1500:1. To samo PVA - 10 lat temu mój EIZO na PVA z kontrastem 1500:1 to był rekordzista, a dzisiaj okolice 3000:1 na VA to już standard. Rozdzielczość też ruszyła (choć faktycznie niektórym się "cofnęła", bo dawniej takie 24" miało te 1920x1200, a dzisiaj są ludzie co kupują 24 z marnym 1920x1080). Nie mniej jednak jest jakiś wybór, bo jak zechcesz, to kupisz też 24" 2560x1440 (a to już przyzwoite daje zagęszczenie) a nawet 3840x2160. Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przez ostatnie kilka lat coś ruszyło. Do niedawna nie było LCD mających więcej jak 60Hz (może przez "przypadek" niektóre szły na 75Hz). 10 lat temu najlepsze IPS miały kontrast ~850:1 (EIZO za nie małą kasę), a obecnie są modele na IPS z kontrastem 1500:1.

 

Ale to nie są dla mnie najważniejsze parametry. Chciałbym, widzieć na ekranie to co widzi developer gry czy producent filmu u siebie w studiu. a ja widzę namiastkę.

 

Chyba, że jestem jakiś dziwny, i większości graczy pc to nie przeszkadza. Może być szarość zamiast czerni, beznadziejne kąty, przekłamania koloru byle był odpowiednio dużo Hz.

 

:(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

VA to niestety tragedia. Miałem wcześniej tv sony na matrycy CCFL podpięty do komputera, i ten stary tv miał nieporównywalnie lepszą jakość obrazu (czerń kolory) niż nowy monitor. I nie ważne jaka VA, czy to zwykła czy Samsungowa Qledowa.

 

Mam wrażenie, że w monitorach komputerowych jest totalny zastój, a obraz nie zmienił się wiele wobec tego co było 10 lat temu. Można się brandzlować monitorami 240Hz, tylko co ci po tych parametrach jak obraz jest taki, że chce się płakać.

 

Ponieważ kupiłem ostatnio nowy TV (OLED LG C8), stwierdziłem że testowo podepnę pod niego pieca. Chrystusie niebieski..., wtedy najbardziej dostrzegłem jaki syf jest na monitorach i jak bardzo dymani są konsumenci.. Wokół OLEDów jest dużo hype'u i myślałem, że nic mnie nie zaskoczy a wręcz się rozczaruję. Ale ten TV "zepsuł" mi wszystkie monitory.

 

Prawda jest taka, że dopier na OLEDzie zacząłem widzieć na no nowo gry i jednocześnie boleśnie uświadamiać sobie jak beznadziejne jest 90% monitorów na rynku.

Nawet takie starocie jak Half-Life 2, Dead Space (taa czerń), Bioshock, wyglądają absolutnie niesamowicie. Kolorystyka, przejścia tonalne, ilość detali w ciemnych scenach, jest jakaś taka "soczystość" obrazku, której nie wiem jak nazwać.

 

 

Więc nie dziwię się, że ktoś szuka kart pod 4K, sam jestem przed takim zakupem. Jak się zobaczyło zmodowanego Wieśka3 na oledzie w 4K, to monitory można zostawić do przeglądania excela czy neta :). Ryzyka przepaleń są już znikome, oczywiście mówię tutaj o użytkowaniu OLED'a pod gry, na pewno nie używałbym bym go jako monitor do pracy z programami.

 

Moje marzenie to złożenie dobrego PC, wywalenie monitora i zamontowanie oleda 55 nad biurkiem :)...

 

i zgodzę się tutaj ze skunRace - jeśli mamy dobry tv lub bardzo dobry monitor 4K@60>1440p120. Nie czaję jak można robić zestaw za 6K-7K i wyświetlać obraz na jakimś badziewiu tylko dlatego że ma 120+ fpsów.

 

To mniej więcej tak jakby wydać 10K na podróż na Hawaje i przez cały pobyt siedzieć tam w piwnicy i widoki oglądać przez małe okienko nad chodnikiem... :D

Jest dokładnie tak jak mówisz ;) Może nie mam OLEDa, choć dobre na moje oko, dobre VA w czerni nie wiele ustępuje OLEDom. Używam teraz TV jako monitora do gier na PC dopiero od kilku dni, i to jest po prostu komsos. Odkrywam gry na nowo, wszystko wygląda dużo lepiej, na monitorach za grube pieniądze, nie ma nawet w połowie takich wrażeń. Miałem monitory TN, VA, IPS, nie ma startu. Gram teraz akurat w 3 części Metra, i dopiero teraz widzę jaką robotę robi porządna czerń i jasność ekranu. Mimo, że stare gry nie mają zaimplementowanego HDR, ma się wrażenie jakby się grało w remaster z HDRem. Już nie mówiąc o wrażeniach w 4K na przekątnej 65" półtora metra od ekranu, po prostu jakbyś tam był :) Mam go właśnie tak jak Ty chcesz zrobić i już nigdy w życiu nie zagram na żadnym monitorze, nie zejdę niżej niż 4K (oczywiście nie mam żadnego problemu, że czasem trzeba będzie grać na bardzo wysokich, nie ultra :E ) i nie kupię nic mniejszego niż 65", następny może nawet większy, choć 55"-65" i tak daje niesamowite wrażenia.

 

Ale to nie są dla mnie najważniejsze parametry. Chciałbym, widzieć na ekranie to co widzi developer gry czy producent filmu u siebie w studiu. a ja widzę namiastkę.

 

Chyba, że jestem jakiś dziwny, i większości graczy pc to nie przeszkadza. Może być szarość zamiast czerni, beznadziejne kąty, przekłamania koloru byle był odpowiednio dużo Hz.

 

:(

Wydaję mi się, że dopóki ktoś nie doświadczy tego na własnej skórze, to nawet nie wie co ma mu przeszkadzać. Jak ze wszystkim, ktoś kto nigdy nie grał w natywnym 4K będzie mówił, że 1080p mu wystarczy, zagra to nie będzie chciał wrócić. Podobnie jest z HZ ekranu i FPSami, 30<60<120, choć zawsze, wybiorę 4K@60 niż 1440p@120. Dawniej graliśmy na 19" 1280x1024 i było pięknie, później przesiadka na 1600x1200, później FHd i zawsze robiło to ogromne wrażenie, i wydawało się człowiekowi jak on mógł tak grać do tej pory. Masa ludzi, od lat siedzi na monitorach 22"-32" FHd czy 1440p i wydaje im się, że to jest w zupełności wystarczające. Testując, bez dwóch zdań wybieram natywne 4K@60 zamiast 1440p@100+, ale wielość też musi być odpowiednia, na pewno w życiu nie kupiłbym 27"4K. I jak widzę, że ludzie kupują monitory gamingowe za kilka tysięcy zł, zamiast kupić TV nawet ze średniej półki, to się płakać chce. Od jakiegoś już czasu, niektóre TV mają obecnie takie funkcję, że są przez producentów robione wręcz specjalnie pod gry.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...