Skocz do zawartości
azgan

HDR na PC

Rekomendowane odpowiedzi

AMD FreeSync 2 to teraz FreeSync 2 HDR (dzięki Adrian Kotowski)

 

https://pclab.pl/news78231.html

 

Raczkuje ten HDR na PC ale może jeszcze coś z tego będzie.

 

TV od Samsunga (Q6FN, Q7FN, Q8FN, Q9FN i NU8000) też mają aktualizację z FreeSync dla graczy https://pclab.pl/news77971.html

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam serdecznie

 

Niestety obecnie bardzo rzadko tutaj zaglądam, m.in dlatego że sprzęt przestał mnie w pewnym sensie interesować (jak coś chce to i tak to kupuje), a to co mnie interesuje to głównie cała otoczka gamingowa :) Niemniej napiszę tutaj parę słów o samym HDR. HDR na PC jest to obowiązkowa przyszłość, to jak wyglądają gry na PC w 4K z HDR to dosłownie szczękę można cały czas podtrzymywać ręką (ciężko się wtedy gra) ;)

 

Kilka praktycznych uwag.

 

Niemniej pierwsza zasadnicza uwaga (zawsze ale to zawsze celujcie w monitor z min. 1000 nitami, VESAHDR1000 jest to obecnie najlepszy standard do grania, zapewnia powyżej 1000 nitów na m2, co moim zdaniem jest wartością ekstremalnie dobrą. UHDPremium często przy 1000 ma ok. 700-800.

 

Druga sprawa nigdy nie kupujcie TV !!! o ile chcecie grać w 4K 60Hz, ponieważ HDMI w obecnym stanie nie jest w stanie przesłać 23GB danych dla HDR + 10bit w 4K (nie mówiąc już o 12bit). Obraz z TV HDR to albo 8bitów, albo 10/12 pocięte. Uzyskanie 4:4:4 RGB to dopiero jak wejdzie nowy standard dla HDMI. Między innymi dlatego jak ktoś włączy HDR TV na PC to się na początku dziwi czemu to nie wygląda TAK, odpowiedź powyżej. Dla 4K HDR + 10bit potrzeba DisplayPortu i to jest obowiązkowe złącze do grania w gry na PC.

 

Z gier których nie ma w zestawieniu na pierwszej stronie wspierających HDR to:

 

- ARK: Survival Evolved

- Agents of Mayhem

- Battlefield 1

- Forza Horizon 4

- Halo Wars 2

- Ni no Kuni II: Revenant Kingdom

- Obduction

- Resident Evil 7: Biohazard

- The Elder Scrolls Online

- F1 2017

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nienawidze HDR !! jest ciemno jak w d. u murzyna nie widać ciemnych detali i jaka to przyjemność lol2.gif A z drugiej strony smaruje jasnością że oczy bolą....

Dokładnie, mam takie samo odczucie. Kolejna, marketingowa, nic nie warta ściema. Może początkowo nawet i trochę może się to podobać, ale już po 10-15 minutach oczy się tylko od tego męczą i ma się dość. Ja obstawiam, że moda na to szybko minie jak na 3D.

Edytowane przez ShadowMan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Kilka praktycznych uwag.

 

Niemniej pierwsza zasadnicza uwaga (zawsze ale to zawsze celujcie w monitor z min. 1000 nitami, VESAHDR1000 jest to obecnie najlepszy standard do grania, zapewnia powyżej 1000 nitów na m2, co moim zdaniem jest wartością ekstremalnie dobrą. UHDPremium często przy 1000 ma ok. 700-800.

 

Druga sprawa nigdy nie kupujcie TV !!! o ile chcecie grać w 4K 60Hz, ponieważ HDMI w obecnym stanie nie jest w stanie przesłać 23GB danych dla HDR + 10bit w 4K (nie mówiąc już o 12bit). Obraz z TV HDR to albo 8bitów, albo 10/12 pocięte. Uzyskanie 4:4:4 RGB to dopiero jak wejdzie nowy standard dla HDMI. Między innymi dlatego jak ktoś włączy HDR TV na PC to się na początku dziwi czemu to nie wygląda TAK, odpowiedź powyżej. Dla 4K HDR + 10bit potrzeba DisplayPortu i to jest obowiązkowe złącze do grania w gry na PC.

 

Celować w monitory z Vesa HDR1000 to sobie można, ale obecnie certyfikowane są tylko dwa - ten Asusa z ceną z kosmosu dla ludzi, którzy nie mają na co wydawać siana i ten "telewizor" w postaci Philips Momentum 436M6VBPAB. Przy tym drugim to nawet nie wspominają, czy ma lokalne wygaszanie. Większość monitorów z certyfikatem Vesa HDR nie ma rozdzielczości 4K, wiec nie ma żadnego znaczenia, jakiego złącza się użyje. Ja się dziwię, jak wygląda HDR na PC, a mam monitor podpięty do kompa przez DP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja mam podpiety 4k HDR tv 49' od jakiegos czasu do PC i stwierdzam ze juz nigdy nie wroce do zadnych niewiadomo jakich super monitorkow 27'. Bawie sie i testuje HDR na PC od jakiegos czasu ale wiecej pytan niz odpowiedzi z tym techem mam. A co jak np. otworzysz gre nie obslugujaca HDR w oknie i wlaczysz HDR w windowsie? Widzimy wtedy SDR w HDR? Roznica jednak w obrazie mimo braku oblsugi HDR jakas jest wiec o co tu chodzi?

Kilka screenow porownawczych

pes 2018

https://imgur.com/J58NmS8 bez hdr

https://imgur.com/70GtZU7

wiedzmin 3

https://imgur.com/6OQtH7w

https://imgur.com/pXKQRQH

crew 2

https://imgur.com/pJBdWLY

https://imgur.com/c0vZo8r

https://imgur.com/uEqsPZz

https://imgur.com/etstYiU

Stranger things 2

https://imgur.com/DJluNLX

https://imgur.com/ALHv4rz

 

Nawet w grach nie obslugujacych HDR na PC udalo mi sie edytowac plik ini zeby sie w HDR wlaczaly. Chodzi o gry oparte o UE4 The observer, Hellblade i chociazby Agony. Wystarczy dodac linie bUseHDRDisplayOutput=True do np C:\Users\Username\AppData\Local\HellbladeGame\Saved\Config\WindowsNoEditor\GameUserSettings.ini. I gra obslugujaca HDR na konsoli wlaczy sie w HDR na nie supportowanym PC

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Celować w monitory z Vesa HDR1000 to sobie można, ale obecnie certyfikowane są tylko dwa - ten Asusa z ceną z kosmosu dla ludzi, którzy nie mają na co wydawać siana i ten "telewizor" w postaci Philips Momentum 436M6VBPAB. Przy tym drugim to nawet nie wspominają, czy ma lokalne wygaszanie. Większość monitorów z certyfikatem Vesa HDR nie ma rozdzielczości 4K, wiec nie ma żadnego znaczenia, jakiego złącza się użyje. Ja się dziwię, jak wygląda HDR na PC, a mam monitor podpięty do kompa przez DP.

 

jak masz HDR na 400-500 nitach to za mała różnica aby podziwiać jego efekt, tak naprawdę to HDR na 700-800 nitach to dobrze wygląda tylko na oledzie TV i grach konsolowych (Oled wiadomo dlatego że czerń jest nieskończona i dlatego te nawet 700 nitów wystarczy aby poczuć super efekt), co do monitorów to mam VESA600 i VESA1000 i różnica jest bym powiedział przepaść. W życiu bym już nie wrócił do grania bez HDR, dobrze że każda praktycznie nowa gra już zaczyna to wspierać, na pewno gry od EA, Ubisoftu oraz wszystkie nowsze na UE.

 

Ja mam podpiety 4k HDR tv 49' od jakiegos czasu do PC i stwierdzam ze juz nigdy nie wroce do zadnych niewiadomo jakich super monitorkow 27'. Bawie sie i testuje HDR na PC od jakiegos czasu ale wiecej pytan niz odpowiedzi z tym techem mam. A co jak np. otworzysz gre nie obslugujaca HDR w oknie i wlaczysz HDR w windowsie? Widzimy wtedy SDR w HDR? Roznica jednak w obrazie mimo braku oblsugi HDR jakas jest wiec o co tu chodzi?

 

Nawet w grach nie obslugujacych HDR na PC udalo mi sie edytowac plik ini zeby sie w HDR wlaczaly. Chodzi o gry oparte o UE4 The observer, Hellblade i chociazby Agony. Wystarczy dodac linie bUseHDRDisplayOutput=True do np C:\Users\Username\AppData\Local\HellbladeGame\Saved\Config\WindowsNoEditor\GameUserSettings.ini. I gra obslugujaca HDR na konsoli wlaczy sie w HDR na nie supportowanym PC

 

włączy się z implementacji, ale moim zdaniem HDR w grze to coś więcej, muszą być dostarczone metadane softwarowo. Bez złącza DP nie uzyskasz powyżej 8bitów w 4K na PC, czyli bym powiedział efekt HDR bliski zeru, a jak zmienisz wartość kolorystyki na niepełną to tym bardziej nie ma to sensu. W oknie nie włączysz HDR / musi być włączony obraz pełnoekranowy. Jeśli chodzi o Windows 10 to wcale nie musisz włączyć HDR z poziomu Windowsa 10 z ustawienia -> ekran, jeśli gra ma w ustawieniach własnych HDR to i tak ten tryb uruchomi, ważne aby było ustawione 10/12bit i pełne RGB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja mam podpiety 4k HDR tv 49' od jakiegos czasu do PC i stwierdzam ze juz nigdy nie wroce do zadnych niewiadomo jakich super monitorkow 27'. Bawie sie i testuje HDR na PC od jakiegos czasu ale wiecej pytan niz odpowiedzi z tym techem mam.

 

A no nie ma już powrotu do małych i kosztownych monitorków jak się zasmakuje w porządnym ekranie do grania. Znam to uczucie ;)

 

jak masz HDR na 400-500 nitach to za mała różnica aby podziwiać jego efekt, tak naprawdę to HDR na 700-800 nitach to dobrze wygląda tylko na oledzie TV i grach konsolowych (Oled wiadomo dlatego że czerń jest nieskończona i dlatego te nawet 700 nitów wystarczy aby poczuć super efekt), co do monitorów to mam VESA600 i VESA1000 i różnica jest bym powiedział przepaść. W życiu bym już nie wrócił do grania bez HDR, dobrze że każda praktycznie nowa gra już zaczyna to wspierać, na pewno gry od EA, Ubisoftu oraz wszystkie nowsze na UE.

 

To fakt najlepszy HDR to jest na OLED'zie ale ja nie zaryzykowałbym używania go jako monitora i do częstego wielogodzinnego grania a miłośnikiem wyłączania HUD\GUI w grach nie jestem :)

 

Druga sprawa nigdy nie kupujcie TV !!! o ile chcecie grać w 4K 60Hz, ponieważ HDMI w obecnym stanie nie jest w stanie przesłać 23GB danych dla HDR + 10bit w 4K (nie mówiąc już o 12bit). Obraz z TV HDR to albo 8bitów, albo 10/12 pocięte. Uzyskanie 4:4:4 RGB to dopiero jak wejdzie nowy standard dla HDMI. Między innymi dlatego jak ktoś włączy HDR TV na PC to się na początku dziwi czemu to nie wygląda TAK, odpowiedź powyżej. Dla 4K HDR + 10bit potrzeba DisplayPortu i to jest obowiązkowe złącze do grania w gry na PC.

 

Zacznijmy od tego że mało który sprzęt wyciąga 60 k/s w 4K a przy 30k/s nie trzeba się bawić w kompromisy

 

dOb9bBe.jpg

 

Druga sprawa to kolory w grze przy 4:2:2 i 12bitach i tak będą wyglądać lepiej od 8bit jeśli komuś zależy na graniu w 4K i 60k/s

 

wlFxxNC.jpg

 

Piotr Gontarczyk dopiero co pisał o ograniczeniach kompresji kolorów w monitorze za 10K z DP https://pclab.pl/news78206.html :D

 

Ja się dziwię, jak wygląda HDR na PC, a mam monitor podpięty do kompa przez DP.

 

No dokładanie też miałem monitor z DP i HDR'm (10 bit) + 144Hz i szału nie było i też się zdziwiłem jak to wygląda (w sensie zachwytów nie było) :P

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z HDR'm jest tak że na początku (może zrobić wrażenie) później człowiek się przyzwyczaja i przestaje zwracać na to uwagę.

 

W niektórych przypadkach HDR wręcz przeszkadza w graniu zwłaszcza w grach multi https://i.imgur.com/5VKNy5M.jpg

 

 

 

800 nitów? Już 500-600 wypala gały zwłaszcza jak ktoś lubi grać przy zgaszonym świetle :E

ja ci powiem ze ten moj samsung ma niby ten certyfikat vesa 600 do 600nitow. nie wiem ile tam jest ale jak gralem w gears of war 4 w nocy i np byla burza elektryczna (w grze oczywiscie) to jak strzelaly pioruny to przymykalem oczy tak razilo wiec naprawde w jansych momentach potrafi wypalic oczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam serdecznie

 

Niestety obecnie bardzo rzadko tutaj zaglądam, m.in dlatego że sprzęt przestał mnie w pewnym sensie interesować (jak coś chce to i tak to kupuje), a to co mnie interesuje to głównie cała otoczka gamingowa :) Niemniej napiszę tutaj parę słów o samym HDR. HDR na PC jest to obowiązkowa przyszłość, to jak wyglądają gry na PC w 4K z HDR to dosłownie szczękę można cały czas podtrzymywać ręką (ciężko się wtedy gra) ;)

 

Kilka praktycznych uwag.

 

Niemniej pierwsza zasadnicza uwaga (zawsze ale to zawsze celujcie w monitor z min. 1000 nitami, VESAHDR1000 jest to obecnie najlepszy standard do grania, zapewnia powyżej 1000 nitów na m2, co moim zdaniem jest wartością ekstremalnie dobrą. UHDPremium często przy 1000 ma ok. 700-800.

 

Druga sprawa nigdy nie kupujcie TV !!! o ile chcecie grać w 4K 60Hz, ponieważ HDMI w obecnym stanie nie jest w stanie przesłać 23GB danych dla HDR + 10bit w 4K (nie mówiąc już o 12bit). Obraz z TV HDR to albo 8bitów, albo 10/12 pocięte. Uzyskanie 4:4:4 RGB to dopiero jak wejdzie nowy standard dla HDMI. Między innymi dlatego jak ktoś włączy HDR TV na PC to się na początku dziwi czemu to nie wygląda TAK, odpowiedź powyżej. Dla 4K HDR + 10bit potrzeba DisplayPortu i to jest obowiązkowe złącze do grania w gry na PC.

 

Z gier których nie ma w zestawieniu na pierwszej stronie wspierających HDR to:

 

- ARK: Survival Evolved

- Agents of Mayhem

- Battlefield 1

- Forza Horizon 4

- Halo Wars 2

- Ni no Kuni II: Revenant Kingdom

- Obduction

- Resident Evil 7: Biohazard

- The Elder Scrolls Online

- F1 2017

takich monitorow jest ilosc znikoma 1000nitow a tv sa mega drogie a ty pisesz jakby to bylo popularne jak montory za 1000zl :D. przeciez display port tez nie przepusci takiego sygnalu i juz o tym pisali przy premeirze nowych monitorow asusa i acera. 4k 10bit max 98hz a wieksze odswiezanie to juz kompresja kolorow. wiec na dobra sprawe optymalnie obecnie jest 4k 10bit 60hz na display port i to samo daja tv na hdmi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Azgan ten sobie kup. Sony Bravia KD-100ZD9 :E, cena 309k zł. :E chociaż jak by poszukać to się pewnie znajdzie TV za 1mln $ :E Tak jak teraz poszło Ferrari 250GTO szare za ponad 100 mln $, a oryginalnego czerwonego koloru Ferrari poszedł pod młotek, myślę że 150-180 mln $ ktoś kupi, to są dobra premium pełną parą dopiero. 8:E

Edytowane przez Stjepan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Azgan - 30Hz to moim zdaniem nie jest w ogóle grywalne, to początki 4K i ekranów 4K, myszka pływa po ekranie, a wszystko dzieje się jak w slow motion z Matrixa, więc 30Hz jako opcja dzisiaj nie powinna mieć w ogóle możliwości użycia. Jeśli chodzi o kolory moim zdaniem pocięte 10/12bit wygląda fatalnie, zaczynając od wyświetlania napisów, a kończąc na normalnych barwach. Więc w jednym i drugim przypadku z HDMI to można co najwyżej grać w 1080p, lub ewentualnie w 1440p. Jednak jak już mamy duży fajny ekran, z fajną matrycą to trzeba korzystać z 4K.

 

Phoenixsuple - 4K 60Hz i 10bit jest niewykonalne na HDMI które kończy się na 18Gb z groszami, do 4K 60Hz i 10bit potrzeba 23Gb przepustowości na kablu więc tylko DP. TV 4K w większości przypadku tego nie mają więc pozostaje wtedy tylko fatalny kompromis o którym napisał Azgan, co całkowicie mija się z ideą grania w HDR. Przy mniejszej rozdzielczości problemu nie ma. Większość jednak osób napala się na TV 4K z myślą o PC co jest bez sensu w przypadku tej rozdzielczości. Na konsolach tego problemu nie ma bo tam materiał nigdy nie jest w 4K natywnym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Azgan - 30Hz to moim zdaniem nie jest w ogóle grywalne, to początki 4K i ekranów 4K, myszka pływa po ekranie, a wszystko dzieje się jak w slow motion z Matrixa, więc 30Hz jako opcja dzisiaj nie powinna mieć w ogóle możliwości użycia. Jeśli chodzi o kolory moim zdaniem pocięte 10/12bit wygląda fatalnie, zaczynając od wyświetlania napisów, a kończąc na normalnych barwach. Więc w jednym i drugim przypadku z HDMI to można co najwyżej grać w 1080p, lub ewentualnie w 1440p. Jednak jak już mamy duży fajny ekran, z fajną matrycą to trzeba korzystać z 4K.

 

Phoenixsuple - 4K 60Hz i 10bit jest niewykonalne na HDMI które kończy się na 18Gb z groszami, do 4K 60Hz i 10bit potrzeba 23Gb przepustowości na kablu więc tylko DP. TV 4K w większości przypadku tego nie mają więc pozostaje wtedy tylko fatalny kompromis o którym napisał Azgan, co całkowicie mija się z ideą grania w HDR. Przy mniejszej rozdzielczości problemu nie ma. Większość jednak osób napala się na TV 4K z myślą o PC co jest bez sensu w przypadku tej rozdzielczości. Na konsolach tego problemu nie ma bo tam materiał nigdy nie jest w 4K natywnym.

na xbox one x coraz wiecej gier ma natywne 4k i bedzie jeszcze wiecej, taki nowy tomb raider ma miec natywne 4k i 60fps.nowe metro tak samo natywne 4k wiec chyba nie jestes w temacie skoro piszesz ze nigdy na konsoli nie jest w natywnym 4k. pozatym osoby ktore kupuja tv jako monitor to jest maly odsetek i zeby grac w 4k 60 fps to trzeba miec naprawdy mocny sprzet no chyba ze ktos tnie detale ale co to za frajda.

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Phoenixsuple

To chyba Ty nie jesteś w temacie, bo Shadow of the Tomb Raider nie będzie miał żadnego trybu 4K 60 fps, tylko albo 4K, albo 60 fps. Metro będzie miało natywne 4K i prawdopodobnie 30 fps, co jest epickim idiotyzmem, bo poprzednie części latały na PS4 i XOne w 60 klatkach i takiej płynności oczekuję od strzelanki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak wiem producent wyrazil sie nie jasno i na poczatku tak podawali ale pozniej sprostowali ze albo albo, sledze temat gier na biezaco codziennie. nie napisalem nigdzie ze metro bedzie mialo 60fps tylko kolega pisze ze "nigdy" nie jest w natywnym 4k to rozwialem jego watpliwosci i podalem jeden z przykladow.

 

nowe info o Dla Dying Light 2 od tworcow:

 

„Najważniejsza jest dla nas płynność ruchów, bo jest to gra typu parkour. Naprawdę musisz być zanurzony w świecie i tym jak się po nim poruszasz, więc 60 klatek na sekundę jest dla nas ważniejsze niż 4K. Ale mamy jeszcze rok na optymalizację i mamy prawdziwych czarodziejów w tym temacie, więc może dostarczymy zarówno 4K i 60 fps.”

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to jak śledzisz temat codziennie, to nie wiem po co napisałeś, że ma być 4K 60 FPS. :E

A kolega pisze wiele głupich rzeczy, w tym jak ważne jest te 10/12 bit, gdy sam posiada monitory z 8-bit + FRC.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Azgan - 30Hz to moim zdaniem nie jest w ogóle grywalne, to początki 4K i ekranów 4K, myszka pływa po ekranie, a wszystko dzieje się jak w slow motion z Matrixa, więc 30Hz jako opcja dzisiaj nie powinna mieć w ogóle możliwości użycia. Jeśli chodzi o kolory moim zdaniem pocięte 10/12bit wygląda fatalnie, zaczynając od wyświetlania napisów, a kończąc na normalnych barwach. Więc w jednym i drugim przypadku z HDMI to można co najwyżej grać w 1080p, lub ewentualnie w 1440p. Jednak jak już mamy duży fajny ekran, z fajną matrycą to trzeba korzystać z 4K.

 

Ja się nie do końca z tobą zgodzę, że 10bit w 4:2:2 wygląda fatalnie szczególnie w grach, gdzie mamy dynamiczny obraz.

Jest gorzej, ale nie aż tyle aby nazwać to fatalnym obrazem. Na necie są fotki/testy w 4:4:4 vs 4:2:2 można sobie porównać i sam robiłem takie testy, większość osób którym pokażę to samo zdjęcie w 4:4:4 a następnie w 4:2:2 nawet nie powie które ma lepsze kolory. Dopiero przy pokazaniu dwóch na raz obok siebie widać różnice, ale też tylko w pewnych partiach i na określonych kolorach. Więc np. moim znajomym często muszę pokazywać palcem gdzie są różnice i wtedy faktycznie zaczynają to widzieć :E.

 

Fatalnie to wygląda 4:2:0, kompresja 4:2:2 jest akceptowalna.

 

Tak to wygląda w mega przybliżeniu:

 

 

Compare_00001.png

Compare_00000.png

 

 

 

Jeśli chodzi o text to każdy może sobie zobaczyć różnice przełączając pomiędzy 4:4:4 a 4:2:2. Widoczne najbardziej na bardzo małym texcie.

Plansza testowa:

 

 

TextTest_4k.png.8fc940e703b15b869281af8c8d22f67e.png

 

 

 

Do tego te całe 10bit w dzisiejszych grach to i tak pic na wodę. Jedyna gra, której jestem pewien że ma textury 10bit to GTS na ps4, które i tak używa kompresji 4:2:2 przy 4k :E. Podobno ma je również FF XV i FC5, ale jak to widziałem na własne oczy to imho nie jest to true 10bit.

 

Na wszytko w pełnym 10bit i tak sobie poczekamy, najpierw nowe standardy czyli HDMI 2.1 i DP 1.5, a później na twórców gier aby łaskawie dali textury w pełnym 10 bit :E

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UP@ lukadd bardzo dobrze i sensownie to wytłumaczył :thumbup:

 

Brawa dla lukadd że chciało mu się to w taki przyswajalny sposób opisać :cool:.

 

w tym jak ważne jest te 10/12 bit, gdy sam posiada monitory z 8-bit + FRC.

 

Tak SAMSUNG C32HG70 ma 8bit + FRC ale faktycznie w wielu miejscach upraszczają pisząc że jest 10bit

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak wiem producent wyrazil sie nie jasno i na poczatku tak podawali ale pozniej sprostowali ze albo albo, sledze temat gier na biezaco codziennie. nie napisalem nigdzie ze metro bedzie mialo 60fps tylko kolega pisze ze "nigdy" nie jest w natywnym 4k to rozwialem jego watpliwosci i podalem jeden z przykladow.

 

nowe info o Dla Dying Light 2 od tworcow:

 

„Najważniejsza jest dla nas płynność ruchów, bo jest to gra typu parkour. Naprawdę musisz być zanurzony w świecie i tym jak się po nim poruszasz, więc 60 klatek na sekundę jest dla nas ważniejsze niż 4K. Ale mamy jeszcze rok na optymalizację i mamy prawdziwych czarodziejów w tym temacie, więc może dostarczymy zarówno 4K i 60 fps.”

 

Jeśli nawet wersja XBOX dostanie natywne 4K + 60fps (w co wątpię biorąc pod uwagę jak prezentuje się metro i co siedzi w XBOX), to na pewno wtedy będzie bez HDRu, co byłoby w dzisiejszym konsolowym gammingu co najmniej dziwne. Na PS4Pro nie ma nawet na co liczyć, nawet W3 jak dostał HDR to dostał w prezencie taką degradację zasięgów i popupy, że szkoda o tym pisać.

 

Ja się nie do końca z tobą zgodzę, że 10bit w 4:2:2 wygląda fatalnie szczególnie w grach, gdzie mamy dynamiczny obraz.

Jest gorzej, ale nie aż tyle aby nazwać to fatalnym obrazem. Na necie są fotki/testy w 4:4:4 vs 4:2:2 można sobie porównać i sam robiłem takie testy, większość osób którym pokażę to samo zdjęcie w 4:4:4 a następnie w 4:2:2 nawet nie powie które ma lepsze kolory. Dopiero przy pokazaniu dwóch na raz obok siebie widać różnice, ale też tylko w pewnych partiach i na określonych kolorach. Więc np. moim znajomym często muszę pokazywać palcem gdzie są różnice i wtedy faktycznie zaczynają to widzieć :E.

 

jestem w stanie zobaczyć bez problemu różnice w grach / moim zdaniem jest na tyle duża że nie warto tutaj iść na nieuzasadnione kompromisy, dlatego napisałem tutaj że jak ktoś myśli o HDR to powinien szukać monitora/TV z DP (na ten moment) + przynajmniej 1000 nitów / w przypadku oled 700+ z tym że w przypadku oled + HDR -> konsole (na ten moment). To jest moje prywatne spostrzeżenie na temat technologii HDR a odbiorników HDR miałem do zabawy, mam z kilka w domu, a sprawdziłem większość które ofiarowały coś nowego. Technologia jest na tyle młoda i dynamicznie się rozwija że w następnym roku może minąć kolejny kamień milowy. Dzisiaj proponuje wybrać takie rozwiązanie, napisałem tutaj tylko dlatego aby ktoś nie popełnił faux pas kupując byle jaki TV z HDR podłączając to do PC a potem zastanawiając się czemu to nie wygląda tak jak piszą i mówią o tym. Niestety w przypadku tej technologii nie da się kupić byle czego i otrzymać pożądany efekt.

 

A kolega pisze wiele głupich rzeczy, w tym jak ważne jest te 10/12 bit, gdy sam posiada monitory z 8-bit + FRC.

 

Nie byłbyś w stanie rozpoznać 10bit i 8bit + FRC (10bit) w każdym z tych przypadków kończy się na tej samej ilości kolorów. Toshiba 10 lat temu kiedy dodawała FRC był on już na tyle sprawny że było to akceptowalne. Poza tym tak jak wyżej napisałem paneli jakie mam, miałem to wszystkie warte uwagi z HDR.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

o ile tv teraz to robi sie szybszy standard 4k i hdr w dosc przystepnej cenie to jesli chodzi o monitory to jeszcze sporo czasu minie, wdg mnie i tak 4k hdr 60hz z gsync to jest na ten moment max no bo jaki bys musial miec sprzet zeby uzyskac te 120fps na 4k. obecnie to nie realne koszta dla przecietnego uzytkownika. 1080ti nie radzi sobie dobrze w 4k w niektorych grach na max detalach zeby bylo te stabilne 60fps a gdzie doepiero myslec 100+

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@halflife2004

No fajnie, ale obecnie kupno monitorów z HDR w ogóle nie gwarantuje, że tryb będzie działał poprawnie. Miałeś/masz monitor Samsunga - powiedz mi, jak niby udało Ci się uzyskać tam normalne, nasycone kolory w HDR, a nie wyblakłe. Masa ludzi, w tym ja, narzekają na to, że HDR działa na monitorach jak chce, no chyba że na konsoli, bo taki Xbox One X nie ma żadnego problemu z puszczeniem odpowiedniego sygnału. Dużo większa jest szansa działania HDR po podpięciu TV do PC niż w przypadku monitorów, co jest po prostu śmieszne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie jest wina monitorów tylko Windows 10 i sterowników GPU.Na PC HDR w tym momencie to kpina i szkoda na to nerwów prawdę mówiąc. Ja czasem walczę w W10 ponad 10 min aby uruchomić HDR a potem FFV

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może źle się wyraziłem - jest problem z Windows, to wiadomo. Ale nie widzę aż takiego z obsługą telewizorów. Wiem, że i tam jest zonk, ale to co się dzieje z monitorami to śmiech na sali. Muszę sobie załatwić jakiegoś Radeona, by zobaczyć, jak to tam wygląda (bo monitor ma FreeSync 2 HDR i ma to jakieś tam znaczenie, jak czytałem w testach).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@halflife2004

No fajnie, ale obecnie kupno monitorów z HDR w ogóle nie gwarantuje, że tryb będzie działał poprawnie. Miałeś/masz monitor Samsunga - powiedz mi, jak niby udało Ci się uzyskać tam normalne, nasycone kolory w HDR, a nie wyblakłe. Masa ludzi, w tym ja, narzekają na to, że HDR działa na monitorach jak chce, no chyba że na konsoli, bo taki Xbox One X nie ma żadnego problemu z puszczeniem odpowiedniego sygnału. Dużo większa jest szansa działania HDR po podpięciu TV do PC niż w przypadku monitorów, co jest po prostu śmieszne.

 

I to jest prawda o czym pisze Blind sam to przerabiałem na monitorze Samsunga CHG70 kolory po wł. HDR były wyprane wyglądało to gorzej od trybu bez HDR. Nie próbowałem tego Acer Predator X27 ani Asus ROG Swift PG27UQ za 10K (które też mają sporo problemów i niedoróbek) natomiast sprawdziłem, jak sytuacja wygląda również na kilku TV i tam efekty HDR były wyraźnie lepsze.

 

to co się dzieje z monitorami to śmiech na sali. Muszę sobie załatwić jakiegoś Radeona, by zobaczyć, jak to tam wygląda (bo monitor ma FreeSync 2 HDR i ma to jakieś tam znaczenie, jak czytałem w testach).

 

O widzisz tego nie sprawdziłem bo cały czas jadę na GeForce - warto się nad tym zagadnieniem pochylić :thumbup:

 

@halflife2004

Miałeś/masz monitor Samsunga - powiedz mi, jak niby udało Ci się uzyskać tam normalne, nasycone kolory w HDR, a nie wyblakłe. Masa ludzi, w tym ja, narzekają na to,

 

Zastanawiające jest to że widzi kompresję przy 4:2:2 ale słowem nie wspomniał że ten Samsung ma ogólnie problemy z czcionką która nie jest wyraźna :E

 

widzicie? to zdjęcie powiększonego tekstu. Powiększony tekst rzadko jest "niewyraźny" z racji grubości, ale bez problemu powinniście dostrzec zbędne cienie i jakby "dziury" w pikselach liter.

 

Spróbujcie spojrzeć na ten obrazek z większej odległości (ale takiej, by wciąż widzieć te "dziury" w literach). Powinniście mniej więcej załapać, o co chodzi w rozmytym tekście w CFG70. Spójrzcie na górną część małego "z", czy coś "zrobione" z cienkiej kreski i grubego cienia będzie wyrażne? :P mi nawet na tym zdjęciu się to rozjeżdża w oczach, a przecież to tylko zdjęcie.

 

f5Hl87p.jpg

 

 

Monitory Samsunga faktycznie godne polecenia :lol2:

 

Wreszcie ktoś w PL jasno opisał w recenzji o problemach z półpikselami na matrycach Samsunga.

"Ostatnio słychać sporo narzekań na zakrzywione monitory VA, od ludzi dotkniętych problemem nieostrych czcionek. Jeśli nie wiecie o co chodzi, tłumaczę. Otóż wybrane matryce tego typu mają dość specyficzną strukturę subpikseli, które są dość przysadziste, a więc nazbyt szerokie w odniesieniu do wysokości, i wyraźnie od siebie odseparowane. Dodatkowo, niektórzy twierdzą, że zakrzywienie panelu wpływa na deformację siatki. Efektem jest brak możliwości uzyskania odpowiednio ostrych czcionek, pomimo przeprowadzenia konfiguracji ClearType w systemie Windows. Co prawda wspomniane przysadziste piksele są raczej cechą charakterystyczną dla monitorów Samsunga, to jednak wysyp problemów z tymiż, zwłaszcza serią FG70, przełożył się na ogólny strach przed zakrzywionymi wyświetlaczami VA. Czy wszystkie te obawy są słuszne?

 

Jak pokazuje przykład Lenovo Y27g, odpowiedź na to pytanie brzmi: nie. Być może wynika to z faktu, że testowany monitor wyposażono w matrycę produkcji AU Optronics, nie Samsunga, jednak fakty są bezdyskusyjne.

 

 

PS. lukadd ma racje przy 4:2:2 jedynie mała czcionka wygląda gorzej (widać to od razu na pulpicie). Grając w STAR WARS Battlefront II przy 12bit i 4K nie byłem w stanie dostrzec kompresji.

 

EDIT: halflife2004 podaj konkretne modele tych monitorów o których piszesz chętnie takie zamówię i sam sprawdzę jak to wygląda.

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Monitory Samsunga faktycznie godne polecenia :lol2:

 

EDIT: halflife2004 podaj konkretne modele tych monitorów o których piszesz chętnie takie zamówię i sam sprawdzę jak to wygląda.

 

Nie wiem o co chodzi z monitorem Samsunga, ten który mam to taka ciekawostka offtopowa ze względu na proporcje i pierwszy dodany HDR. Z monitorów jakie mam to:

 

- Asus Rog PG27UQ - niestety za mały dla mnie więc podpięty jest u żony do laptopa jako dodatkowy wyświetlacz / HDR na świetnym poziomie

- Philips 436M6VBPAB - uważam że za te pieniądze jest wręcz świetny, oraz duży, więc używam go domyślnie / HDR na świetnym poziomie

- Samsung 49" CHG90 - jako ciekawostka sprawdza się w niektórych grach gdzie proporcje tego monitora dają niezwykła immersje / HDR na średnim poziomie

 

to jeżeli chodzi o monitory, jeśli chodzi o TV to od dawna preferuje tylko OLED Sony oraz Philips ze względu na AL / mimo to mam zamiar sprawdzić jeszcze Samsunga Q9FN mimo że nie jest Oledem ale podobno ma spektakularny efekt HDR.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ten monitor philipsa wygląda całkiem ciekawie matryca MVA z kontrastem 4000:1 + niezłe świecenie, ale tam jest 8bit+frc co zwykle pogłębia banding colorów. Mógłbyś napisać jak to u ciebie wygląda w trybie HDR, często się zdarza, że widać przejścia tonalne pomiędzy odcieniami kolorów?

 

No i ma DP 1.2 więc i tak nie wyciągnie 4:4:4@60hz 10bit.

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...