Skocz do zawartości

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

aDaMs^

Natywne 2K a 2K z DRS (cz też 4K) na monitorze 1080p

Rekomendowane odpowiedzi

Mam pytanie co do monitora i rozdzielczości 2K.

Otóż chce wymienić obecny monitor na FullHD 144hz, bądź 2K 144hz , w 2K będę grał tylko w niektóre tytuły (ze względu na kartę graficzną będzie to gtx 1060 bądź gtx 1070 - ale mniejsza o to). Chodzi o to, czy ktoś orientuje się jaki efekt otrzymałbym odpalając grę technologią DSR w 2k badź 4K na monitorze 1080p? Czy byłboby to porównywalne do 2K na monitorze 2k? Jakby miało się takie skalowanie DSR do rzeczywistego obciążenia karty graficznej? Czy:

takie skalowanie przez DSR - 4K do 1080p obciąża dokładnie tak samo kartę graficzną jakbyśmy grali bezpośrednio na 4K na monitorze 4K? Czy może jest trochę mniej obciążające? Zastanawiam się nad kupnem monitora 1440p i rozważam, czy warto, czy czasem nie lepiej byłoby mieć monitor FullHD i tym sposobem ewentualnie przeskalować sobie 4K do FullHD. Można jakoś porównać spadki fps np z 4K do FullHD z grą bezpośrednio w 2K? Albo pytanie, jakie obciążenie dla karty (spadkami fps) będzie gra w 2K na monitorze 2K, a jakie przeskalowane 2K do FullHd? (bądź 4K do fullhd). Jakie porównanie obrazów miałoby przeskalowane 2K do FullHD od bezpośredniego 2K na monitorze 2K? Czy widać byłoby różnice w przeskalowanym 2K do FullHD a zwykłym FullHD? Trochę o tym czytałem, ale nie wiem jak to działa w praktyce i czy czasem zamiast wydawać więcej kasy na monitor 2K kupić sobie FullHd i odpalić grę przez ten DSR?

Mam nadzieje, że ktoś zrozumie o co mi chodzi, bo ciężko mi dokładnie wytłumaczyć. Z góry dziękuję :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • @lokiju tak weryfikowałem to co mówi zychowicz i Żebrowski , zychowicz to kłamca i mitoman
    • Właśnie o to mi chodzi. Tzn ja wiem że nie mogę oczekiwać 14-14-14 na tych goodramach tylko o tym, że nie wiem dlaczego ludzie ustawiają równe wartości a nie minimum które jest stabilne. No ale teraz podałeś przykład że żeby X miało sens na 8 to Y też musi być na 8 a nie więcej. Nie znalazłem po prostu nigdzie informacji czy każdy timing warto dać najmniej ile się da, czy są między nimi powiązania i nie ma sensu dawać najniższych, bo jak nie będą równe z innymi wartościami to nic nie zmieni.
    • Tyle teorii. A gdy idziesz miastem i neony dają 1100 nit zamiast 600-700 to różnica jest kosmiczna
    • Monitory qd oled w oknie 10% nie przekraczają 500 nitów, gdzie oledy od LG serii C w oknie 10% mają 700-800 nitów, więc sorry ale się nie zgadzam. Mam w domu DW (po 2 latach ten monitor jest wciąż w topce najbardziej ogarniętych hdr na monitorach) i C3 42 - ten drugi lepiej wypada w hdr (jasność w oknie 10% i większy ekran robią swoje). Co do  Cyberpunk to też obecnie gram w 4k i polecam te dwa mody i ustawienia (wklejam poniżej). Dzięki nim ta gry wygląda lepiej jak nigdy. I highly recommend Cyberpunk 2077 Nova LUT Mod (HDR variant under the Update section + Optional ENV File "Raster", even if you use PT in-game) + setting in-game HDR10PQ + Midpoint 3 + Max HDR Luminance 25% more than your actual display luminance in nits (e.g. 2.000 nits if you have a 1.500 nits TV) + Saturation 0. Then you can also install HD Reworked Project Mod for much better textures (Ultra Quality if you have 16GB VRAM, otherwise Balanced). Performance may take a small hit but you can recover it by just lowering both in-game Volumetric Clouds and Ambient Occlusion settings to Medium (with no noticeable differences).
    • To przy następnym wywaleniu sprawdzę. Jak nie mam internetu to w menadżerze urządzeń nie widać pozycji Intel i225 i w sumie to nic nie mogę zrobić z kartą wtedy.    win 11
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...