-
Liczba zawartości
10342 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
11
Odpowiedzi dodane przez tomcug
-
-
Inna ścieżka wykonania, na kartach Arc leci na ich odpowiednikach Tensorów, a na innych kartach uproszczony model klasycznie na shaderach.
- 3
-
Pisanie o konkretnym GPU w kontekście tak boleśnie wolnego na obecne standardy CPU tak naprawdę nie ma znaczenia. Czy wsadzi się tam 4080 SUPER, czy 4070, czy nawet 4060, bottleneck będzie taki sam
-
Godzinę temu, Kyle_PL napisał:Skąd wiesz Panie anty JEDEC?
Bo to sprawdzałem.
-
11 godzin temu, Kyle_PL napisał:Dodatkowo może być tak, że przy limitach mocy (tych ze specyfikacji) to XMP da wręcz ... "nic" w pewnych obliczeniach, w których po ściągnięciu limitów z kolei różnice się pojawią ( 🙂 ).
To tak nie działa Panie JEDEC
- 1
-
Moja 4080, która żre 360 W, ma z wtyczką wszystko w porządku Fabryczny kabel zasilacza Gigabyte, żadne wynalazki od Cablemoda.
- 2
-
16 minut temu, madDog napisał:Muszę Cię zmartwić bo podium wygląda trochę inaczej.
Dużo zależy, w jakiej grze się porównuje i w jakiej rozdzielczości, bo przewaga RTX 4090 nad słabszymi GPU jest od tych czynników mocno zależna. Generalnie ostatnie kilka stron można podsumować:
- 3
-
34 minuty temu, tgolik napisał:Ta RTX 3050 jest tak samo energooszczędna jak 25 W żarówka wolframowa - relikt poprzedniej epoki.
Trafne porównanie. I tak samo jak zwykłych żarówek nikt nie nazywa energooszczędnymi, tak samo trudno nazwać energooszczędną kartę graficzną tylko dlatego, że jej pobór prądu jest niski. Tak samo jak przy żarówkach, liczy się też to, jaką pracę wykona sprzęt przy danym zużyciu energii, czyli w tym przypadku, ile FPS jest w stanie wygenerować.
3 minuty temu, zachy napisał:Prad na wykresie podany z jednostką Wat?
Przecież napisał pobór prądu (Wat), a nie sam prąd (Amper).
- 2
-
Ale RTX 4090 jak na oferowaną wydajność wcale nie pobiera dużo prądu! Co więcej, jak już to było powiedziane, przy graniu z limitem FPS zużywa mniej energii niż niższe GPU z niższym fabrycznym TDP. Przykro mi, ale posiadacze gorszych GPU muszą jakoś ten fakt przełknąć Samemu nie mam RTX 4090, ale nie próbuję zawrócić rzeki kijem.
- 1
- 1
-
6 minut temu, tgolik napisał:Technologie zaimplementowane w RTX4090 pozwalają na osiągnięcie tej samej wydajności, co inne karty przy mniejszym poborze mocy.
Litości, jakie technologie. Większy rdzeń z większą liczbą SM, żadnych magicznych sztuczek tam nie ma.
- 1
-
9 minut temu, Minciu napisał:To Ty zszedłeś do 5.7Ghz na i9-14900KS? To z tego pudełkowego 6.2Ghz niewiele już zostało. Pisałeś coś o schodzeniu oczko w dół.
Idź lepiej podkręć mocniej DDR5, jak się nudzisz, a nie pitol coraz gorszych głupotek
- 1
- 2
-
Nie pomyliło Ci się z Ultra Low Latency (w skrócie NULL)?
-
4 minuty temu, kadajo napisał:Można w sumie na stale wymusić Reflex'a w sterownikach
Od kiedy? Reflex jest implementowany na poziomie gry, to nie drut mod Anti-Lag+
-
4 godziny temu, cichy45 napisał:To sterowniki muszą mieć profil pod grę?
Ściągasz Profile Inspectora, wchodzisz w interesującą Cię grę, sprawdzasz ustawienia RBAR i w razie potrzeby dajesz przełącznik na Enabled, to wszystko:
- 1
-
3 godziny temu, kadajo napisał:A to FG nie było wprowadzone z DLSS 3.5 ? Może coś pomieszoł albo:
Nie, FG zadebiutowało z DLSS 3.0
3 minuty temu, Phoenix. napisał:Przy dobrym modzie FG od AMD nikt nie odroznilby czy to FG od nvidia czy amd wiec nie pisz glupotek o jakis kosmicznych lagach i gorszej jakosci
Paradoksalnie dotyczy to wyłącznie starszych GeForce'ów, gdzie można dorzucić Reflex do mieszanki, a na Radkach bez Anti-Laga+ jest... bida
- 1
-
4 godziny temu, kadajo napisał:Tak jak DLSS 3.5 ?
Co wprowadził DLSS 3.5? Odszumianie AI. Na jakich GPU działa RR? Na wszystkich RTX. Szach, mat
-
2 godziny temu, Art385 napisał:to co robił z wydajnością sam denoiser w AW2 to nawet nie było śmieszne
?
Możesz przybliżyć jakoś ten temat?
-
50 minut temu, kadajo napisał:4.0 to już dla RTX 5xxx będzie.
"Tak samo" jak 3.0 jest tylko dla RTX 4000? Bo z tego, co wiem, działa na wszystkich Będzie jak pisałem, co najwyżej pewne ficzery ograniczone do najnowszych generacji.
- 1
-
1 godzinę temu, Art385 napisał:a tak faktycznie, co za dużo to i świnia nie zje ale gracz to nie świnia, zeżre wszystko. Najwyżej pokręci nosem. Najnowszy dlss dla wszystkich
No i przecie będzie dla wszystkich. Co najwyżej niektóre opcje najnowszej wersji nie będą działać na starszych GPU
-
Nowe stery Intela z kolejnymi poprawkami DX 11, Arc A770 i God of War w 1080p i przy maksymalnych detalach:
- było: 51,7 FPS (~RX 6600)
- jest: 63,5 FPS (~RX 7600 XT)
-
W dniu 1.04.2024 o 23:08, voodoo34 napisał:Chyba nie do końca. Anti Lag na innych kartach nie włączysz.
Włączysz za to lepszy Reflex A na Radkach do dnia dzisiejszego Anti-Lag+ jest RIP
-
Jest różnica bardzo wyraźna w pomieszczeniach
-
Godzinę temu, Sheenek napisał:Czyli w 100% pewnosci nie masz ze to nie jakis drop przez cpu. No ale moze i gpu.
Mam 100% pewność Po obniżeniu rozdzielczości FPS w górę.
-
W tej gierce 4K z DLSS jakość daje więcej FPS niż 1440p natywne, mimo że oba renderują w 1440p Także spartolony koncertowo tytuł od każdej strony.
- 2
-
18 minut temu, Sheenek napisał:I pewny jestes ze tam ci juz cpu nie siadalo?
Ta, poza miastem na pewno siadało
18 minut temu, Sheenek napisał:Z RT pewnie?
Oczywiście.
Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Checkerboard Rendering oraz inne
w Gry
Napisano
Nie, bo jak pisałem wyżej, model dla kart bez XMX jest uproszczony, żeby nie zarzynać wydajności.