Skocz do zawartości
azgan

BIG FORMAT GAMING DISPLAYS - dyskusja o dużych ekranach w roli monitora

Rekomendowane odpowiedzi

patrzę teraz na recenzję Rtings C2 42 cale (C3 42 cale nie recenzowali) i ten tv ma tragiczną jasność w sdr i hdr

jeśli c4 42 cale też ma mieć taką jasność to będzie niewarty mojej uwagi

gorszą jasność i rangę koloru w stosunku do qd oled jeszcze bym przeżył, ale zauważalnie gorszej jasności, szczególnie w hdr, już nie zaakceptuję

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak masz pokój ciemny, to nigdy nie użyjesz 100% jasności w sdr. Ja używam od 30-40. Więcej jest za jasno.

HDR wygląda natomiast o niebo lepiej niż na monitorach z nominalnie 1000 nitów. Miałem w domu QD-OLED 31.5 4k, 34 cale 21:9, WOLED 27 cali. HDR na tych ekranach to słabizna w porównaniu do LG 42. Rozmiar robi swoje - pisałem o tym w wątku o monitorach. 

---

Tak, C4 będzie miał podobne poziomy jasności. Największa zmiana w generacji na rok 2024 to dodanie obsługi 144Hz.

55 minut temu, MuziPL napisał:

Ktoś pamięta jaką miał cenę na premierę w PL?

7999 PLN przez wakacje, 6499 PLN od września.

Edytowane przez MSky7

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Że tak podpytam z tych dwóch  iiyama GCB3480WQSU-B1 czy GB3467WQSU-B5 jest lepsza i mniej smuży? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, MSky7 napisał:

Jak masz pokój ciemny, to nigdy nie użyjesz 100% jasności w sdr. Ja używam od 30-40. Więcej jest za jasno.

HDR wygląda natomiast o niebo lepiej niż na monitorach z nominalnie 1000 nitów. Miałem w domu QD-OLED 31.5 4k, 34 cale 21:9, WOLED 27 cali. HDR na tych ekranach to słabizna w porównaniu do LG 42. Rozmiar robi swoje - pisałem o tym w wątku o monitorach. 

---

Tak, C4 będzie miał podobne poziomy jasności. Największa zmiana w generacji na rok 2024 to dodanie obsługi 144Hz.

7999 PLN przez wakacje, 6499 PLN od września.

mam C8 w 55 calach (który w okienku 2% i 10% jest jaśniejszy w hdr od C2 42 cale) i mam 34 calowego qd oleda, który w okienku 2% ma 1000 cd/m2 a w 10% niecałe 500 cd/m2 i mimo o wiele mniejszego rozmiaru qd oled robi lepsze wrażenie w hdr od C8..pamiętajmy, ze qd oled to nie tylko większa ranga koloru ale również jego większa jasność/nasycenie

najlepiej by było kupić tego C4 42 cale i porównać, ale ja nie lubię kupować, aby testować (niestety)

 

Edytowane przez MuziPL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, MuziPL napisał:

mam C8 w 55 calach (który w okienku 2% i 10% jest jaśniejszy w hdr od C2 42 cale) i mam 34 calowego qd oleda, który w okienku 2% ma 1000 cd/m2 a w 10% niecałe 500 cd/m2 i mimo o wiele mniejszego rozmiaru qd oled robi lepsze wrażenie w hdr od C8..pamiętajmy, ze qd oled to nie tylko większa ranga koloru ale również jego większa jasność/nasycenie

najlepiej by było kupić tego C4 42 cale i porównać, ale ja nie lubię kupować, aby testować (niestety)

99.99999% ludzi dalej zachwyca się nad TN/VA/IPS. Nie wiem czy jest sens szczypać się tak jak piszesz o różnice w OLEDach. Mat/Glossy, rozmiar, odświeżanie, rozdzielczość, warunki gwarancji. To powinno być kluczowe przy podejmowaniu decyzji w tym świecie. Sprane kolory czy niska jasność oledów? Wychodzi na to że najlepiej kupić coś od Samsunga i leciec na profilu Dynamiczny / Buraczkowe Mordki ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A dlaczego nie, po to jest wybór żeby można było się kierować dowolnymi przesłankami, w końcu chodzi o rozrywkę

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po kilkudniowych dywagacjach jednak zamówiłem C3 42. Narobiłem sobie tylko tym roboty, bo albo będę go zwracał jak mi w jakiś sposób nie będzie pasował, albo będę sprzedawał DW, ale czuję potrzebę zmiany i posiadania większego ekranu na biurku od jakiegoś czasu. Poza tym, używane DW wciąż trzymają cenę, więc jak C3 mi się spodoba to wymiana wyjdzie raptem kilka stówek.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To parę porad od heavy usera :-)

1) Jak możesz, podłącz się kablem ethernetowym (stabilnie działa LGTV Companion)

2) Nadaj stały IP

3) Ustaw "Włączanie TV za pomocą Wifi" (ogólne> urządzenia zewnętrzne>włączanie za pomocą...) - tak, trzeba to zaznaczyć nawet jak idzie po kablu

4) Zainstaluj LGTV Companion i skonfiguruj ww. adresem - telewizor będzie się bezproblemowo włącząć, wyłączać razem z komputerem (w tym razem z zasypianiem i wybudzaniem)

5) W TV ustaw rodzaj wejścia HDMI na PC 

6) Włącz Optymalizację gry a w niej VRR GSync i ALLM. 

6) Ustaw rozdzielczość niestandardową w panelu Nvidia 3840x1600 albo 3840x1640 jak chcesz dalej grać w 21:9. Można zmieniać też proporcje w TV, ale rozwiązanie z rozdzielczością jest wygodniejsze - w większości gier wybierasz ją  wtedy z poziomu opcji graficznych

7) moje parametry obrazu SDR, do pracy w dość ciemnym pokoju: jasność 30-40 (około 100 nitów), ostrość 8, głębia kolorów 60-65.

8 ) jak chcesz wygodnie zmieniać jasność bez pilota, zrób sobie gdzieś pod ręką taki .bat w WIndows (wymaga LGTV Companion):

@echo off
chcp 65001 >>nul
COLOR 0b
set /p jasnosc=Jaką jasność ustawić?__

cd /d c:\Program Files\LGTV Companion
"LGTV Companion.exe" -backlight %jasnosc% 

TIMEOUT 1 > NUL

9) jak chcesz sprawdzić aktualne ustawienia jasności i koloru, to taki .bat

@echo off
chcp 65001 >>nul
cd /d c:\Program Files\LGTV Companion


@echo Twoja jasność to 
"LGTVcli.exe" -ok backlight -get_system_settings picture [\"backlight\"]

echo -----------

@echo Twoje kolory to 
"LGTVcli.exe" -ok color -get_system_settings picture [\"color\"]

rem pause >>nul

TIMEOUT 3 > NUL

9) Do treści HDR wystarczy przełączyć Windows klawiszami Win+Alt+B. Najlepiej wyłączyć AutoHDR w Windows i używać RTX HDR z panelu Nvidii (do konwersji wideo) i aplikacji Nvidii. W TV nie trzeba niż ustawiać, sam rozpoznaje tryb HDR i daje znać w prawym górnym rogu.

10) jak coś mi się przypomi, to dopiszę.

 

 

Edytowane przez MSky7
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Pewnie, że tak: https://wydarzenia.interia.pl/zagranica/news-trump-twierdzil-ze-ukraina-to-czesc-rosji-nie-potrafil-tego-,nId,7447738 A tu polubicie Putina: https://www.onet.pl/kultura/proszynski-i-s-ka/madre-matki-dobre-zony-tylko-w-onecie/316e015,30bc1058 - Japończycy to mają łeb, niemal jak Hitler z holokaustem.
    • O ile całkiem nie zniknie z planszy.
    • Już 4h to jest długo, a te 8 to będzie wyczyn. To już dystans do przejechania we dwoje 😄
    • https://www.x-kom.pl/p/1186263-monitor-led-27-lenovo-r27q-30.html
    • Że jest tania? Absolutnie się nie zgodzę. Zobacz co się dzieje z cenami MSRP. Kiedyś, w czasach Crysisa kupowało się 8800GT 512mb za +/- tysiaka i karta starczała do każdej możliwej pozycji, prócz Crysisa  w 1280x1024 i high/vhigh. Miałem taki sprzęt dobre 4 lata i jest to jedna z najlepszych kart jakie kiedykolwiek posiadałem. Wiadomo, inna wartość pieniądza, ale pamiętam że nie odczuwałem jakoś wyraźnie wydatku na grafikę zaczynając wtedy swoją pierwszą pracę.  Dzisiaj za kartę pozwalającą na podobny poziom wydajności trzeba wydać 2-3k a i tak gwarancji nie ma, że się pogra w odpowiednich detalach bo wychodzi Dragons Dogma 2 lub inny Jedi Survivor i stutter pod sufit  nawet później, karciochy pokroju GTXa 460 czy 750ti czy nawet 1060 były dużo lepiej wycenione do swojego segmentu i dawały relatywnie więcej. Dlaczego do dzisiaj, mimo upływu niemal 10 lat ludzie wciąż grają na 1060 6gb? Z sentymentu? No please  to że ceny przez kopalnie i covida poszły w górę to jedno, ale dostajemy mniej za więcej kasy więc nie widze nic złego w głosowaniu portfelem i kupowaniu używek. Właśnie po to, żeby nV wróciła do wypuszczania porządnego mid-endu i low-endu jak ongiś bywało. Takie karty jak np FX5200 czy 5700LE sprzedawały się świetnie, pomimo relatywnie niskiej w porównaniu do konkurencji czy premium wydajności dlatego, że nawet ta niska wydajność dalej była realnym przeskokiem od np gf2mx czy 4mx. To były rzędy wartości namacalne i warte upgradu, gdzie wprowadzenie pixel i vertex shaderów sprawiło, że gry wyglądały lepiej i działały płynniej. Co nam daje RT dzisiaj? Udawane rozdzielczości, realistyczne odbicia i cienie - ale kosztem czego, spadku z 100 klatek do 30 ?  Na karcie za 5k ? Zobacz jak wygląda mid-end, 4060 które powinno być 4050, śmieszne wartości vram pamiętające jeszcze Fermi i Maxwella, AMD wypuszczjące najpierw wersje gołe, żeby wydać XT a później GRE - kto się w tym połapie? Jeszcze sam dopisek Titanium powiedzmy że zajeżdza nostalgią (właśnie czasy GFa2 3 4) ale super? A może 2060 czy 2070 Titi?(t) ?   I na koniec, właśnie bardziej bym się drapał po czaszce dlaczego ktoś handluje np karciochą z wyższej półki za 3k czy 4k skoro dopiero umoczył kasę, nie małą, teraz musi z niej zejść żeby w ogóle sprzedać... cewki piszczą? Gwarancję odrzucili bo coś się rypało? Jak taki 1080ti albo 2070 popracował 3-4-7 lat to kolejne 2-3 też popracuje. A nuż widelec nV w końcu zmądrzeje? Poza tym, zabrzmię trochę jak boomer, ale kurła, mamy chyba skończone wartości minerałów i surowców potrzebnych do produkcji elektroniki? Czy coś się zmieniło ostatnimi czasy? Dla mnie osoba żonglująca perfekcyjnie działającą elektroniką co pół roku to nie entuzjasta ani tym bardziej osoba do dyskusji czy dawania komuś rad  zaraz się okaże, że najlepiej zamiast rxa 6600 autor powinien od razu pójść w i9 14th gen i co najmniej 4080 super, bo inaczej to lipa i będzie miał karpika (rym niezamierzony). 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...