To jest wina vramu, pisałem o tym wielokrotnie wcześniej. Na 3070 miałem dropy do 40fps a podczas cutscenek to już w ogóle tragedia. Niby pokazuje 7gb zużycia ale jak te same ustawienia odpalam na 4070 to zżera jakieś 9 - 10.
VRAM może braknąć np. za rok. Jak ktoś używa karty tylko "teraz" i jeszcze przez max kilka-kilkanaście miesięcy, a planuje wymianę za te kilka-kilkanaście miesięcy, to nie ma się czym martwić, ale jak nie wymienia co generację, to może mieć już problem.
Nie zapominajcie ze główny problem takiego światła to to ze nie jest naturalne. Ale dobrze, sam HDR może teoretycznie osiągnąć 10 tys. nitów. Wiec nawet jak osiągniemy 4 tys. to nie wykorzystamy polowy możliwości dynamiki tego sygnału.
Ale ostatecznie liczy się mastering i to aby wykorzystać 100% tego co jest w sygnale natywnie.