Mam tą samą kartę, jeżeli to 2500-2600 jest stabilne przy 1110mv to szacun, mi minimalnie udało się zejść tylko do 1155v poniżej tego to nawet 2000mhz w timespy wywala resztę poboru tnę zegarem (każde 100mhz mnie to -25W z tego co zaobserwowałem) 3dmarka zaliczasz? (timespy) na tych ustawieniach? bo mi różne benchmarki chodziły nawet na 1080mv przy 2500mhz a timespy w sekundę to zweryfikował Podciągnąłem vram do równych 2300mhz z fast timings, na 2320 już mnie losowo raz na dobę z gry wywala a przy 2350 robi się restart pc (tutaj też nowość co do przekręcenia memek)
próbowałeś wyłączyć szybkie uruchamianie w dodatkowych opcjach zasilania windowsa? na te restarty ustawień? ja mam tak zrobione i wszystko jest ok.
Na pewno schodząc -100mhz nie stracisz 10% bo już to przerabiałem może wynik w benchmarkach będzie mniejszy ale w grach tego nie odczujesz, zrób z zegarem tak jak krisol sugerował to zobaczysz jak fajnie zacznie spadać pobór.
Warto wiedzieć że na tych kartach masz pokazany programowo pobór samego gpu a nie całej karty, realnie to masz przy tych "289 W" jakieś 320.
Ten tryb rekonstrukcji na szczęście nie działa negatywnie na każdą twarz, bo to byłby już dramat, widząc twarz, która wygląda jak namalowana pastelami.
Jeżeli chodzi o otoczenie, to wygląda to lepiej.
OFF
ON
W grze otoczenie wygląda normalnie i nie jest tak wyostrzone jak na screenie.
Zapomniałem wspomnieć, że włączony ten tryb dodaje mi kilka fps w 4K.
Mam już kilkanaście godzin gry za sobą i bawię się świetnie, gra wygląda naprawdę bardzo fajnie na Oled z RT PT i HDR, a co najważniejsze gra działa płynnie w 4K.
Jemu pewnie chodzi o to jak filmowo i prawdziwie wyglada CP w porownaniu do Starfielda. Roznica jest kosmiczna i tutaj CDPR pokazuja klase swiatowa, praca kamery, dialogi, mimika.
I tak, pod tym wzgledem Starfield ciagle traci sztucznoscia znana z F4 czy Skyrima. Bethesda jak piranie, swojego pinokia w kolko struga. Ale zeby nie bylo, Starfield jak dla mnie swietna zabawa, juz ponad 60-70h mam i ciagle chce wiecej.
hary ma tam 82 vs 87 FPS i 4090 obciążony jest w 50% i wciąga 200 wat, więc w sumie fajnie, że się zgadzasz. Ale mówisz że 1440p już wszystko zmieni? No nie wiem. waty pewnie urosną trochę
Dla mnie różnica jest "powalająca". O ile ten test ma coś wspólnego z testem, bo mam wątpliwości co do wiarygodności samego portalu.
Co ciekawe pokazują tam też taką samą różnicę między 4800 a 6000. Czyli również nic nie warte uwagi 5PFS. Czyli mamy 77/82/87 FPS. Wiadomo, skoro nie widać różnicy to po co kruszyć kopię? A wogóle to po co się czepiam i9 + 4090 + DDR4 to wspaniałe połączenie. Pozwala oszczędzić kupę hajsu na pamięciach. Ze 400zł będzie no chyba że odsprzedamy ddr4 i jeszcze na tym zarobimy bo jakiś jeleń odkupi starocie
ps. dzisiaj pasjonaci (na świecie) kręcą się między 2x24GB a 2x16GB i poniżej 7600 nikt nie schodzi. Inaczej spać nie może..
U nas na pclolu dalej czyta się o ddr4 i że ram nic nie daje. Mam wrażenie, że do grobu będziecie Bdie zabierać po jednej kostce w garści jak kiedyś faraoni te swoje patyki