Skocz do zawartości

Rekomendowane odpowiedzi

Pomijam temat kalibracji kolorów, bo - po pierwsze - potrwa chwilę zanim, to zrobię należycie, załapię gdzie błąd (maszyna czy ja). 

Opiszę temat zmagań, gdy to ogarnę (lub nie - to tym bardziej opiszę).

Nie oceniam monitora, bo nie mam doświadczeń, nie mam porównania i nie mam kosmicznych wymagań graficzno / operatorsko / fotolab...

Po prostu oceniam chęć / sensowność / efekt mojej przesiadki na 27' / 1440p / 144Hz / G-sync / za sensowne pieniądze.

 

1. thumbup.gifCena rynkowa:

= ok. 2500 zł vs mój zakup z OLX = 1200 zł z przesyłką.

2. thumbup.gifFizyczny stan monitora z drugiej ręki:

w zasadzie bez śladu użytkowania. Dostałem przez zakupem na maila od właściciela foto z "wadami", gdzie chyba na siłę wyszukał jakieś ryski na tyle obudowy przy HDMI. Gdyby mi tego nie wskazał na foto - sam bym tego nie znalazł. Stan monitora z drugiej ręki oceniam na idealny. Chodzi mi tutaj głównie o podkreślenie, że zła sława (słusznie!) OLX i cyrków głównie z GPU, przekrętami, koparkami, sprzedawcami handlującymi widmo-towarem itd. w przypadku monitorów jest chyba bezpieczniej. Mnie udało się dostać sensowne urządzenie, w świetnej cenie, w świetnym stanie + przesympatyczny sprzedawca. Można...

 

3. thumbup.gifStan matrycy:

nie widzę niczego niepokojącego. Zero bad pixeli itp.

4. thumbup.gifKonstrukcja:

Jestem pod wrażeniem "mechaniki" monitora. Podnoszenie, opuszczanie, obrót w podstawie, pivot - POEZJA, dwoma palcami... rewelacja.

 

5. thumbup.gif Wygląd:

Bardzo smaczny, stonowany, subtelny, elegancki. Bez oczojeb..ych fajerwerków, smoków, pazurów, czerwonych stopek gamerskich. Wiem, że w/w cechy mają sens i swoich odbiorców. Ja jednak szukałem czegoś dla "dorosłego człowieka", co może stać na biurku w salonie i nie trącić gimbazowym designem przy tym. Wąziutka ramka. Subtelna dioda zasilania "pod monitorem", która nie razi. To już nawet nie aspekt wizualny a wręcz użytkowy. Czytałem o modelach gamingowych monitorów, które w ciemnym pokoju diodą-power potrafią wypalać oczy właścicielowi. 

 

6. thumbup.gifOgólne wrażenia przesiadkowe. SUPER! 

Bardzo bałem się tego, że porywając się z gtx 1070 na 1440p stracę dużo mocy (i póki nie wymienię na 1080ti) będę się męczył... NIC BARDZIEJ MYLNEGO.

Jestem naprawdę w szoku (!), że jednak podnosząc wymagania, poprawiając "ostrość obrazu" i wskakując na 1440p - i tylko poprzez "bajery" typu 144Hz i G-sync - można jeszcze tak dużo wycisnąć z 1070ki (!!!), i czerpać jeszcze więcej radości "dla oka" niż przy FHD (!) 60Hz - kartą którą praktycznie przekreśliłem, czekając na 1080 ti. Zgodnie z opiniami wszystkich, którzy twierdzą, że 144Hz i 1440p to kolejny - zupełnie nieporównywalny i nieopisywalny poziom gry i doznań - W PEŁNI SIĘ ZGADZAM i potwierdzam (i dziękuję za te opinie, które skłoniły mnie do przesiadki). Po pierwsze czuć radość z wykorzystania każdej wyprodukowanej przez GPU klatki! Zblokowane do tej pory vsync'kiem 60Hz sprawiało, że nie nigdy nie widziałem 75..., 85... fps (nawet, gdy karta mogła je uzyskać). Teraz obraz żyleta !!! i do tego...  często więcej FPS niż wcześniej w FHD! 65 - 75 - 85 fps + synchro G-sync = brak utraty choćby klateczki! Nie wspomnę o doznaniach przy gierkach, które sa w stanie polecieć na +100FPS (Wolf, BF1, itp.). Płynność zupełnie inna. Do tego stopnia, że o ile - póki nie przyleciał do mnie ten monitor - pełen obaw, że nie uciągnę go 1070ką - już kopałem po OLX za 1080ti. Teraz... zaczynam się zastanawiać, czy aby na pewno JUŻ potrzebuję 1080ti do przesiadki (!?!), bo gry otrzymały nowy wymiar! :). Wiedźmin płynie, Assassins Origins płynie, Rise Tomb Raide, FC 5, itd, itd.... wszystko "idzie lepiej" na 1440p, niż wcześniej na 1080p 60Hz vsync. Wiem, że to trudno wyjaśnić. Ten kto nie dotknął 144Hz / G-sync - nie ogranie :). Ten kto używa - wie o czym mówię. 

 

7. thumbup.gif Ogólnie. 

Do tej pory nie zdawałem sobie sprawy, że "tylko głupi" monitor może mieć tak kolosalne znaczenie w odbiorze całej platformy. Pakowałem monetę w SSDki, RAMy, GPU, CPU (co oczywiście jest sensowne i zasadne) kompletnie zlewając monitor (siedząc na przedpotopowym 60Hz FHD - kupionym na chwilę - i tak został). 

 

Sumując. 

Platforma (moc) ta sama, gry te same, user ten sam, / + "tylko" zmiana monitora / rozdzielczość wyższa, szczegółowość wyższa, FPS wyższe (spuszczone ze smyczy 60Hz), fun rewelacja! thumbup.gif.

 

========================================

 

WADY:

c.d.n. ;)

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

(...) Każdy monitor coś tam po latach gubi ja tego specjalnie nie zauważam ale wiem,

(...) Poprzedniego IPS-a użytkowałem ponad 3 lata i nie zauważyłem jakiegoś spadku jakości obrazu czy nie trzymania ustawień po czasie.

(...) Pewnie jakoś tam intensywność podświetlenia po czasie maleje ale przy podświetleniu LED to raczej długi okres czasu.

NIE, nie... nie chodzi mi o "naturalne" zużywanie sprzętu. Chodzi mi o efekt "trzymania" / pamięci (jak zegarek w magnetowidzie ;) .

Jak sobie ustawię prefsy, kalibrację itd. - wyłączę, spakuję, wrzucę na szafę i za miesiąc wyjmę... to będzie trzymał te ustawienia, czy to się kiedyś "resetuje"?

O to mi chodzi... bo przecież nie dostałem monitora z fabryki, tylko kupiłem od innego ludzia. Hipotetycznie ludź mógł popierniczyć kolory i profile. Mieć na to wylane. Tak używać. Zapakował. Sprzedał i ja dostałem tak rozjechane profile (a fabryka może była lepsza)?

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kolejny krok efektu wow to VA/IPS UWQHD 34-35". Ja swojego Philipsa wyhaczyłem w morele za 1800zl. Ale mam 1080TI i wali mnie gsync. Jakbyś chciał gsync w ultrawide to AOC za około 3000zl. Tylko nie wiem czy outleta można wyszarpać za 2000zl? Za bardzo popularny ekran i gsync sprawi ze byle pare zł taniej dadzą i zejdzie.

 

 

Philipsa ogladałem jak był za 2200zl. Morelki zeszły do 1800zl a wtedy się złamałem :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To kolejny krok efektu wow to VA/IPS UWQHD 34-35".

No. Tak właśnie sam pomyślałem, że z IT nigdy nie jest tak, że mówimy - no! to mam full wypas, niczego już nie da się podkręcić! ;). Kwestia monety, postrzegania / potrzeb.

Wskakując na 1440p i 144Hz widzę, jak długo żyłem w niewiedzy i "biedowałem" na FHD 60Hz. :)

 

Raczej nie zadrwię z kogoś, kto pcha się w SLI, 4K... z tekstem "no i po co to komu?, bez sensu, wywalanie kasy, tego nie widać"

To ja po prostu na dziś nie ogarniam sensowności tego, ale ten kto się w to pcha (i kogo stać) - on wie co robi :)

Kolejna poprzeczka :)

 

Ludzie boją się lub szydzą z rzeczy, których nie znają / nie rozumieją ;).

Ja długo cokolwiek ponad 1080p i 60Hz / 60 fps uważałem za fisia, fanaberię i wywalanie kasy taty przez bananowego smyka. ;)

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na innej wyspie potrzeb leży kraina "true 10bit" rozpiętości tonalnej kolorów.

Mając monitor 1440p "true 10bit" oglądasz filmy 720p lepsze niż w kinie lub bardzo porównywalne, pod względem jakości kolorów (wszystko zależy od jakości projekcji w sali kinowej).

Jakość filmów z komputera nabiera nowego wymiaru.

W sieci jest tego zatrzęsienie.

Wszystko ma swój sens.

Edytowane przez tekkno

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kalibracja ma sens, jeżeli tego potrzebujesz, wiesz chociaż ogólnie co to jest, używasz oprogramowania, które pracuje z profilami, masz dostęp do kalibratora, zainstalujesz profilera, użyjesz wszystkiego we właściwy sposób.

Kalibracja polegająca na przesuwaniu suwaczków to nie jest kalibracja, tylko przesuwanie suwaczków.

Ściąganie czyjegoś profilu z internetów to nie kalibracja, tylko używanie ustawień z innego monitora skalibrowanego do innych ustawień, w innych warunkach.

 

Tl;dr: daruj sobie ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Kalibracja ma sens, jeżeli tego potrzebujesz, wiesz chociaż ogólnie co to jest, używasz oprogramowania, które pracuje z profilami, masz dostęp do kalibratora, zainstalujesz profilera, użyjesz wszystkiego we właściwy sposób.

Wiem czym jest kalibracja i jaki jest jej cel. Najczęściej, aby robota z platformy A (grafik, studio), były wyprodukowane / wyemitowane na platformie B w sposób maksymalnie wierny (drukarnia, kino). Znam różnice między RGB, CMYKiem, kumam czym jest RAL, a czym Pantone dlatego... dziwi mnie taki atak na "złe kalibrowanie" maszynki do rozrywki.

 

Kalibracja polegająca na przesuwaniu suwaczków to nie jest kalibracja, tylko przesuwanie suwaczków.

No teoretycznie. Raczej nie do końca i nie zawsze. :) Kalibracja to wierność dwóch (lub więcej) maszyn / systemów. Liczy się efekt. To co zrobione na kompie, ma być wierne realowi / efektowi. Jeżeli ktoś jest takim magikiem :) o siłach nadprzyrodzonych, że potrafi podejść do sprzętu i "na oko poprzesuwać suwaczki" (skutecznie!), to już nie będzie przesuwanie suwaczków, tylko kalibracja. Warunek konieczny = skuteczność w efekcie (produkcie końcowym / wynikowym). 

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To żaden atak. To reakcja na pytanie o kalibrację maszynki do gier.

Oto jakie pytania się nasuwają:

Jaki jest sens kalibracji monitora na TN?

Jaki jest sens kalibracji monitora do gier?

Jakie gry obsługują profilowanie kolorystyczne?

 

Poza tym, żadne "teoretyczne". Nie ma magików, którzy są w stanie przesuwać kilkoma suwaczkami dla uzyskania efektu (?!?!?) kalibracji.

Kalibracja to nie jest zmiana wartości trzech-sześciu parametrów numerycznych. To coś o wiele bardziej skomplikowanego. W zasadzie można by to przyrównać do narysowania 6-wymiarowego wykresu ;)

Żaden człowiek nie zrobi tego prawidłowo z definicji, bo jest człowiekiem.

 

Ogólnie rzecz biorąc, ludzie w internetach sobie wymyślili, że coś tam robią, bo coś przesuwają i nazwali to kalibrowaniem, chyba dlatego że to fajnie i poważnie brzmi.

Ktoś im do tego jeszcze wcisnął ideę, że monitor skalibrowany być musi zawsze, bo to lepiej. Że niby potrzebują jakiejś wiarygodności...tylko wiarygodności w związku z czym? "Najlepsze kolory" nie istnieją ogólnie.

 

Zresetuj monitor do wartości fabrycznych, ustaw jasność na ciut mniejszą, niż wydaje się odpowiednią, używaj go odpowiednio (tj. nie po ciemku) ciesz się i tyle :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie kalibracja to biały = biały a nie niebieski, żółty czy dowolny inny odcień. Reszta mi nie robi większego znaczenia, jak bardzo czerwony będzie czerwony. Czy to co wydrukuje będzie takie samo na papierze i na ekranie.

 

Bez takiej kalibracji ekrany, szczególnie TN są często beznadziejne. Tak więc zmieniająć sobie 3 suwaczki RGB w monitorze dokonujemy kalibracji, adiustacji czy czego kolwiek innego co potrzebujemy na dany moment. Nazwać można to jak kto chce.

 

Tak więc Jagular, nikt tutaj nie chce uzyskać efektu wow i stacji dla grafika. Ma być po prostu przyjemne w codziennym użytku.

 

U mnie w TNce gamma standardowa jest do dupy, wszystko sprane. Wbijam wyższą gammę coś 2.5 i jest cucuś. Kolory robią się soczyste. Ekran staje się przyjemny w użytkowaniu. Tylko to są opcje z menu. Bo na niejednym teście można wyczytać, że gamma 2.2 w menu to realne np 2.0.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to nazywajmy to po imieniu: zmianą temperatury bieli ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W takim razie ja robiłem dokładnie to :) Zmieniałem temperaturę bieli nanosząc minimalne korekty w kolorac RGB. Dosłownie po 1-2 kroki w skali chyba 100 ?

 

Biały najbardziej rzuca się w oczy, jak jest inny niż powinien. A reszta.. w grach ? Wsio ryba. I tak nie ma to nic wspólnego z odzwierciedleniem rzeczywistości :)

 

 

Ktoś tam coś o filmach zaczął pisać, to jeszcze też miałoby senw, aby może zbliżyć się np do .Rec a olać biel na pulpicie :) Aczkolwiek wolę duży TV/Projektor/Kino od Monitora/Komórki/Tabletu do filmów. Dla mnie monitor psuje klimat totalnie :)

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i to jest w zasadzie dobre podejście w takich zastosowaniach.

Zamiast walczyć o jakaś wiarygodność kalibracyjną (co nie ma sensu), lepiej walczyć o "lepszość", co oznacza dopasowanie temperatury i saturacji kanałów pod konkretnego siebie.

 

Wyświetlacze filmowe i ich kalibracja...To oczywiście temat kontrowersyjny, ale jeżeli ktoś ma dobry sprzęt i chce mieć to poczucie, że patrzy na np. niebieskie coś i to coś było dokładnie tak samo niebieskie na monitorze osoby robiącej postprodukcję materiału...to niech sobie kalibruje, a co tam ;)

Czasami po prostu wiarygodne nie oznacza automatycznie lepsze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To żaden atak. To reakcja na pytanie o kalibrację maszynki do gier.

Spoko :)

 

Oto jakie pytania się nasuwają:

Jaki jest sens kalibracji monitora na TN?

Jaki jest sens kalibracji monitora do gier?

Jakie gry obsługują profilowanie kolorystyczne?

Dokładnie. W zasadzie po temacie.

Poza tym, żadne "teoretyczne". Nie ma magików, którzy są w stanie przesuwać kilkoma suwaczkami dla uzyskania efektu (?!?!?) kalibracji.

Kalibracja to nie jest zmiana wartości trzech-sześciu parametrów numerycznych. To coś o wiele bardziej skomplikowanego. W zasadzie można by to przyrównać do narysowania 6-wymiarowego wykresu ;)

Żaden człowiek nie zrobi tego prawidłowo z definicji, bo jest człowiekiem.

Trochę mnie poniosło :)

Chodziło mi bardziej o to, że kalibracja = efekt. Czasami nie trzeba niczego kalibrować (fart) i jest OK. Czasem się kalibruje i długo jest kiszka. Efekt, to wyznacznik kalibracji IMO.

 

 

Ogólnie rzecz biorąc, ludzie w internetach sobie wymyślili, że coś tam robią, bo coś przesuwają i nazwali to kalibrowaniem, chyba dlatego że to fajnie i poważnie brzmi.

Ktoś im do tego jeszcze wcisnął ideę, że monitor skalibrowany być musi zawsze, bo to lepiej. Że niby potrzebują jakiejś wiarygodności...tylko wiarygodności w związku z czym? "Najlepsze kolory" nie istnieją ogólnie.

Dokładnie. Czasami odnoszę wrażenie przesadnej schizy w każdym temacie. Osobiści używam klamotów IT od 35 lat. Z forów dopiero dowiaduje się, że do tej pory wszystkiego "źle używałem" ;)

Gdyby istniały najlepsze kolory albo jedyne prawdziwe... mielibyśmy kilka przycisków mniej na pilotach TV (żeby sobie przypadkiem nie popsuć "właściwych" kolorów ;)

 

Zresetuj monitor do wartości fabrycznych, ustaw jasność na ciut mniejszą, niż wydaje się odpowiednią, używaj go odpowiednio (tj. nie po ciemku) ciesz się i tyle :)

Bardzo zdrowe podsumowanie ;)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biel + Gama - dwie rzeczy dla mnie do osiągnięcia w domu bez cudowania.

 

Po przesiadce na VA w sumie nie zmieniałem nic, wybrałem odpowiadający mi profil i w nosie cała reszta:) Wizualnie było mocno zbliżone do TNki używanej wcześniej.

 

Tutaj nawet są fotki jak to wyglądało: https://www.olx.pl/oferta/monitor-gsync-144hz-27-fhd-g-sync-1ms-8bit-flickerfree-acer-xb270h-CID99-IDuNYLw.html#f0b99ce8fc

 

Tylko przy fotach zapomniałem zmniejszyć jasność w philipsie. On miał z 250cadów (pełna moc-100) a TNka jakieś 80-100(zbita do około 20/100 w menu). Widac to na ostanim screenie jak TNka wyszła ciemna.

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wczoraj w ustawieniach (chyba sterów nvidii) ustawiłem "sygnalizację" działania g-sync (taki znak wodny na ekranie gry).

Dziś przeinstalowałem stery i nie umiem dojść, gdzie to się włączało :( (albo po prostu nie ma tej opcji (?) w obecnych sterach)

Tu mowa o tym, że się da :) 

-= LINK =-

 

"Warto również rozwinąć menu „Display” (Obraz) na górze okienka i zaznaczyć w nim opcję „G-SYNC Indicator” (Wskaźnik G-SYNC). Dzięki temu będziesz informowany o tym, czy G-SYNC został włączony po uruchomieniu gry."

... ale w obecnych sterach tego ni chu chu :( (albo nie widzę:(

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i to jest w zasadzie dobre podejście w takich zastosowaniach.

Zamiast walczyć o jakaś wiarygodność kalibracyjną (co nie ma sensu), lepiej walczyć o "lepszość", co oznacza dopasowanie temperatury i saturacji kanałów pod konkretnego siebie.

Dokładnie tak. 

 

Kiedyś nawet... w wątku o Wiedźminie wynikła przedziwna dyskusja. Pojawiła się gadka o detalach. To niebywałe, że ile osób, tyle metod na wydajność, albo rasowanie grafiki i tyle zadowolenia lub pomstowania.

 

Ktoś mówi, że woli detale na low, byle wysoka rozdziałka. Ktoś inny, rozdziałka poniżej FHD, ale byle detale na max. Ktoś inny ma gdzieś rozdziałkę czy duża, czy mała - byle pow. 60 fps. Ktoś tnie AA ale maxuje cienie, inny krzyczy, że mózgu trzeba nie mieć, by zabijać całe piękno gry, jaką dają... cienie (?!?). Cienie muszą być na max! To już lepiej zupełnie wyłączyć wygładzanie, ale cienie muszą być max! Inny kołem daje się łamać za HW. Kto inny ma kompletnie w d..e  HW :), ale musi być za to pow. 60 FPS.

 

K A B A R E T  (!) - i przy okazji - dowód na to, że każdy widzi, postrzega, odbiera, potrzebuje - czegoś innego.

A my tu wjeżdżamy w niuanse typu temperatury i kolory ;)

Skoro nie ma jednego słusznego confiu, to tym bardziej nie ma jednej słusznej palety i kalibracji monitora :)

 

 

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dell... Spostrzeżeń ciąg dalszy...

 

Faktycznie prawdą jest, że przesiadka z 1080p na 1440p to inny wymiar (nawet na GPU pokroju 1070 - warto!).

Piksel mniejszy, odbiór lepszy, doznania zupełnie inne, mniej AA = a efekt i tak ok.

 

144 hz... czy warto?

Oj bardzo! Różnica kosmiczna! 

R E W E L A C J A ! Temat poza dyskusją.

G-sync... pic na wodę?

Nie. 

Bardzo fajna sprawa. Polecam. Pobawiłem się na 60Hz, 144Hz, G-sync, bez G-sync i...

przez chwilę myślałem, że magią jest same 144Hz... że odświeżanie jest na tyle istotne, że mało kto mając gsync - wyłącza go, by się przekonać, czy to "coś daje". 

Więc pobawiłem się i... 144Hz kosmos i wydaje się, że to jest istota całego odbioru / poprawy. 

 

Faktycznie. Uważam, że 144Hz Gsync vs 144Hz no Gsync, to jest 70% vs 30%. Na 144hz wszystko działa super i jest malina, ale... włączenie g-sync (nawet mając te 144Hz) daje jednak miodzik. 

Widać to (!), ale dopiero mając i włączając / wyłączając g-sync.

 

Czy warto dopłaccić do g-sync?

IMO, to zależy... 

Efekt jest widoczny i odczuwalny, aczkolwiek różnica w cenie monitorów 144 hz gsync / 144hz no g-sync... za duża. 

Jeżeli ktoś, jak ja, przesiada się z mega padalca 24' / 1080p... na 27' / 1440p / 144Hz / ... + gysync = moni z 2giej ręki = warto ! 

Jeżeli ktoś już ma dobry moni (27 / 1440 p / 144 Hz / bez gsync) =... raczej nie. 

 

Wszystkie w/w odczucia potęgują się... gdy zapnie się dotychczas używany / całkiem fajny / 1080p - 60 Hz...

P R Z E P A Ś Ć ! technologiczna, wrażeniowa, na każdym polu (IMO). 

 

Kolejna ważna rzecz.

Prawdą jest, że nie da się "poczuć" różnic 144Hz / 60 Hz... G-sync / no G-sync... na You Tubie i filmach.

Nagrałem komplet filmów. 60 / 144 / Vsync / Gsync / Gsync przy 144hz / Gsync przy pon. 60 Hz... 

PSU NA BUDĘ! Różnice przy nagrywaniu były kosmiczne. 

Na filmach... zero różnic. Szkoda czasu na nagrywanie, szkoda czasu na oglądanie. 

Tego trzeba doświadczyć w realu.

 

Gdzie widać G-sync?

Przy milionie fps w CS? 

Nie.

 

Ja gniotę W3, TR, AC:O, FC5, itp.

 

Często na filmach YT pokazują (próbują) gsync przy ruchach i obrotach kamery...

U mnie czuć to już przy ok. 65  - 80 fps nie przy obrotach kamery wokół własnej osi... ale przy "obrotach w biegu". Po prostu "biegając w koło". 

60Hz vsync 60 fps... niby płynnie, ale... nie da się odczytać otoczenia. Nie widać trawy, detali, tekstur... przy 144 Hz (a fps 80!) jest fajnie... lepiej... i pozornie nie ma się do czego przyczepić. 

Ale dopiero włączając g-syn, tu czuć różnicę. Wszystko płynie. Masło... choć nadal "tylko" 80 fps.

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Łykasz wszystko jak karp. Realnie G-sync w moim i wielu odczuciu to niewarta dopłacania sprawa. Co innego gdyby był za free jak freesync od AMD.

Jak byś nie widział masz jeszcze coś takiego od niewidji jak fast sync i to ma każdy kto ma kartę niewdji bez dopłacania 500-700zł za g-sync.

Działa tak samo jak gsync, jest za free ale powoduje mnimalnie wyższego laga od G-sync, który także powoduj jakiegoś tam laga. Włączasz to w sterach i działa.

Jak ktoś ma mocniejszy komp to spoko sprawa. Taki ala G-sync za free stąd niewdja tym specjalnie się nie chwali.

 

Grając (np tak jak ja) troszkę tak bardziej multi w szybkie FPS-y nikt nie używa G-synca czy freesynca bo zwyczajnie dodaj kilka lub kilkanaście milisekund laga.

Dla mnie bajka to 240hz. Co do obrazu na tym dellu. Wrzuć na fotę czerni (czarne tło) zrobioną w zaciemnionym pokoju - najlepiej wieczorem przy zgaszonym świetle.

Edytowane przez Todis

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Łykasz wszystko jak karp. Realnie G-sync w moim i wielu odczuciu to niewarta dopłacania sprawa. Co innego gdyby był za free jak freesync od AMD.

Jak byś nie widział masz jeszcze coś takiego od niewidji jak fast sync i to ma każdy kto ma kartę niewdji bez dopłacania 500-700zł za g-sync.

Grając (np tak jak ja) troszkę tak bardziej multi w szybkie FPS-y nikt nie używa G-synca czy freesynca bo zwyczajnie dodaj kilka lub kilkanaście milisekund laga.

Dla mnie bajka to 240hz.

Ale...

1. Primo. Nie gram w szybkie fps (więc lag g-sync nie ma dla mnie znaczenia).

2. Drugie primo. Kupiłem monitor z G-sync z OLX... przesiadając się z 1080p 60Hz na 1440p / 144Hz / G-sync za... 1200 zł z przesyłką.

Ile przepłaciłem za g-sync przy tej cenie? 500 - 700 PLN? 

Czyli rozumiem, że bez g-sync powinienem dostać moni 1440p / 144 Hz za... 500 / 700 PLN?

Uważam, że nie ma szans. Nawet za używkę.

 

PS. 450 zł kosztuje w morelach... mój 100 letni Benq 1080p 60 Hz (GL2460).

Założywszy, że 250 zł "odzyskam" za staruszka - dopłaciłem 950 zł za przesiadkę na 1440p / 144Hz / G-sync. 

Przepłaciłem?

 

PS2. Napisałem wyraźnie. Kto ma dobry moni 2k / 144Hz doplata do g-sync = nie warto.

Kto zmienia syfa na coś nowego - IMO warto do G-sync dopłacić.

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok pisałem o G-sync a nie o twojej mega okazji.

Wrzuć zdjęcia czerni.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok pisałem o G-sync a nie o twojej mega okazji.

Wrzuć zdjęcia czerni.

Spoko. Jutro pstryknę.

BTW. Nadal motam się z mdłym kolorami. Zatem nie opisuję monitora...

Opisuję przesiadkę "sprzętowo / doznaniową" z 1080p / 60Hz na 1440p / 144Hz / Gsync. ;)

Info jest nie dla wymiataczy, tylko takich jak ja tydzień temu. Wahających się. :)

Może komuś się przyda takie info kiedyś.

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przetestuj Gsync w grach gdzie masz stabilne 144FPS. Albo 100FPS i 100Hz.. Gsync ON + VSYNC ON. Ważne aby włączać obie rzeczy jednocześnie. Bez Vsync ON będzie rozrywanie obrazu. I tak widać to minimalnie ale jest :) Po drugiej stronie odpal testy 100/144Hz (i stabilny FPS) VsyncON. Porównaj czy widzisz róznicę. Ja nie widzę różnicy. Nie podczas normalnego grania. Jakbym się skupił na maxa tylko na płynności zamiast na grze to różnicę zobaczę. Ja wyznaję zasadę, że lepiej dopłacić do GPU zamiast do GSYNC.

 

A już na pewno Gsync vs Freesync lub dowolna inna nazwa tego samego dla mnie jest oczywiste, ze gsync to zbedny bzdet. Nie wart dopłaty. Ale jak nieraz widzę na zagranicznych forach w tematach, czy nvidia da adaptive sync bez modułu, to żal mi jest tego człowieka co błotem go obrzucają fanboje. Tak samo żal mi fanbojów, co mają totalnie sprane mózgi. Trzeba być idiotą, żeby wyzywać innych za to, że śmią pomyśleć o adaptacyjnej synchronizacji bez modułu ;) Ciekawe co będzie z HDMI, które powinno mieć synchronizację w standardzie.

 

BTW. Nadal motam się z mdłym kolorami. Zatem nie opisuję monitora...

zmieniałeś Gammę na ciemniejszą ?

 

Dla mnie bajka to 240hz.

Grałeś już na 240Hz bez żadnego synca? Tak żeby FPS był mniejszy niż 240 ? Widziałeś wtedy rozrywane klatki?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Grałem i nic nie widziałem ale to był szybki FPS gdzie ponad 200 klatek było.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przetestuj Gsync w grach gdzie masz stabilne 144FPS. Albo 100FPS i 100Hz.. Gsync ON + VSYNC ON. Ważne aby włączać obie rzeczy jednocześnie. Bez Vsync ON będzie rozrywanie obrazu. I tak widać to minimalnie ale jest :)  Po drugiej stronie odpal testy 100/144Hz (i stabilny FPS) VsyncON. Porównaj czy widzisz róznicę. Ja nie widzę różnicy. Nie podczas normalnego grania. Jakbym się skupił na maxa tylko na płynności zamiast na grze to różnicę zobaczę. (...)

 

 

Bo ona... występuje. 

Ale zgodzę się z tym, że "jak się skoncentrujesz" na obserwacji. Testy, o których mówisz zrobię sobie z ciekawości.

 

(...) A już na pewno Gsync vs Freesync lub dowolna inna nazwa tego samego dla mnie jest oczywiste, ze gsync to zbedny bzdet.

 

No. Tak radykalnego podejścia nie do końca pochwalam, bo naprawdę pozornie jesteśmy tacy sami (dwoje oczu, dwie ręce, itd.) :), ale w dyskusjach wychodzi, że postrzegamy w wielu przypadkach inaczej i innego oczekujemy. Powtórzę się. Wielu na tym forum da się zabić za "ultra cienie" w W3 czy AC:O (które żrą jednak FPS). Ja za nic nie widzę tego (podczas gry)!. Dla mnie HIGH a ULTRA przy cieniach = zero różnicy. Najczęściej daję nawet cienie na MEDIUM (zyskując FPS), bo najnormalniej tego (JA) nie widzę. Jednak daleki byłbym od stwierdzenia, że czyjeś configi to bzdet. Ot - dla nich ważne. Dal mnie wcale. Nie widzę różnicy podczas oddawania się grze. Ale pewnie jest. Tylko dla mnie nie ma ona aż takiego znaczenia, aby okupować ją utratą FPS.

 

Ja wyznaję zasadę, że lepiej dopłacić do GPU zamiast do GSYNC.

 

A ja traktuję go, jako "darmową wartość dodaną" w moim przypadku i zakupu na OLX za 1200 zł.

Jeżeli miałbym celowo dopłacić 500 - 700 zł dla samego g-syn (albo miał spasiony monitor bez gsync i wymieniał "tylko dla gsync) = popieram.

Też uważam, że to smaczek - fajny bajer - super, jeżeli już jest - ale lepiej przerzucić monetę na GPU.

 

Ale jak nieraz widzę na zagranicznych forach w tematach, czy nvidia da adaptive sync bez modułu, to żal mi jest tego człowieka co błotem go obrzucają fanboje. Tak samo żal mi fanbojów, co mają totalnie sprane mózgi. Trzeba być idiotą, żeby wyzywać innych za to, że śmią pomyśleć o adaptacyjnej synchronizacji bez modułu ;)

 

A mi żal kogokolwiek, kto napina się i "chce zagryźć" za jakiekolwiek inne poglądy. Fora są do dyskusji, udzielania porad, wyciągania wniosków istotnych dla siebie... ale nie do "zagryzania się" ludzi, którzy nawet nigdy się nie widzieli.

No może poza... polityką :)

 

(...) zmieniałeś Gammę na ciemniejszą ? (...)

Jakoś słabo  mi to idzie mad2.gif

 

 

I jeszcze coś... przy tej ostrości obrazu 2K widzę takie dziwne coś na krawędziach kontrastowych obiektów (drzewa na tle nieba)... taki cień (choć nie do końca cień, bo "to jest" jasne, nie ciemne), poświatę, morę, coś jak aberracja chromatyczna - tylko monochromatyczna :).

Ki ...uj!?  scratchhead.gif 

Nie umiem się tego pozbyć.

 

Edytowane przez JeRRy_F3D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dziwne coś na krawędziach to zbyt mocne Overdrive. Albo czas reakcji matrycy ustawiony na maximum. Zmniejsz to na średnia moc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • @galakty co ty będziesz że  handel ze wschodem nie istnieje https://www.tirsped.com.pl/blog/polska-wymiana-handlowa-z-innymi-krajami/ Skąd najwięcej importuje Polska? Dane narastająco od początku roku  Niemcy – wartość: 222,1 mld PLN – 21,9% udziału Chiny – 146,6 mld PLN – 14,4% Włochy – 52,2 mld PLN – 5,1% Rosja – 45,1 mld PLN – 4,4% Holandia – 40,4 mld PLN – 4% Francja – 35 mld PLN – 3,5% Czechy – 32,3 mld PLN – 3,2% USA – 24,3 mld PLN – 3,1% Korea Południowa – 24,3 mld PLN – 2,4% Belgia – 23,2 mld PLN – 2,3% @Camis mentzen wolnościowiec który mówi o przymusie , dzięki za link @Spl97 po co to pisanie o kucach i debilne ogólniki ? Nie lepiej przekonywać konkretnymi  argumentami do pozostania w UE ? Tak się naśmiewasz z PiSu i jego elektoratu a sam robisz to samo co oni @lukadd do dziś ludzie myślą że Polska jest krajem suwerennym, mamy największą wymianę handlową z Niemcami więc narazie musimy pozostać w UE nawet jak ktoś tego nie chce , trzeba tylko przekonywać rządzących UE że likwidacja pieca gazowego itd nie jest dobrym pomysłem , z pozycji wasala ciężko coś ugrać   
    • Pokazałem wykresy ale prawda jest tylko jedna - TO NIE JEST TO SAMO "If we look at the common peak white luminance measurements you can see what impact the ‘APL stabilize’ setting is having in this area too. Only the HDR Game and Vivid modes reach up to the panels >1000 nits capability, getting to 1072 nits maximum as the setting is on ‘high’. The other 3 modes all cap out at around 484 nits where it’s set on ‘middle’." I zanim zapytasz "to czemu nie ustawił na APL HIGH pozostałych trybów?" bo ch. dają i tak nie przekroczą 480 peak nitów.   Tylko HDR Game oraz HDR Vivid mogą osiągnąć Peak 1000 w trybie APL HIGH. Potwierdziłem to też po rozmowie z kolesiem który napisał recenzje na TFTcentral i jak ustawisz "domyślny HDR" w APL HIGH to masz max peak w okolicach 480 nitów! Czyli TrueBlack 400!☠️   Mam przyjechać do ciebie z kalibratorem aby pokazać czarno na białym że zwykły HDR z APL HIGH to nie jest tryb Peak1000?    
    • @Camis masz wypowiedź mentzena o tym co dokładnie powiedział na temat tego poboru tylko mężczyzn?
    • @leven Ukryłem, ale jak widać FC widzi wentyl, teraz jest pod Fan3, jak się sparuje i ustawi to nie reaguje na kontrole manualną oraz krzywą.   
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...