Skocz do zawartości

Rekomendowane odpowiedzi

7 minut temu, kadajo napisał:

Sama Nvidia reklamuje FG jako świetną technologie gdy procesor niedomaga ;)
MFS jest tego idealnym przykładem.

Raczej wyjątkiem. ?

Poza tym o czym my dyskutujemy. Nie łączy się wydajnej karty graficznej ze słabym procesorem. 

Zakończmy ten temat. Ja chciałem po prostu uświadomić, że pośrednie klatki nie są za darmo.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale słaba wydajność MFS to nie jest wina procesorów. :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, lukadd napisał:

DSR 4k

Pisałem już tutaj kiedyś, początkowo dawałem testy w 4K DLDSR, ale po któreś wersji W11 ( jestem w teście W11 Canary Edition) DLDSR całkowicie mi pitoli system. Jest mordęga żeby wymusić poprawne działanie ( często wiąże się to z koniecznością szukania pliku ustawień gry aby wyczyścić i móc odpalić grę )  i odpuściłem sobie testy w 4K.  Prawdopodobnie stery nie są full kompatybilne z tak testową wersją W11 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, lukadd napisał:

W 1440p + FG :E No nie, na pewno nie. W natywnym 4k pewnie dociśnie, ale na ile dokładnie to nie wiem bo ja to tylko na chwilę odpalałem.

To wyłącz FG, DLSS i ustaw wszystkie opcje w tej grze na maksa i patrz co się będzie działo. RTX klęknie i pęknie jakby to Voodoo było, a nie najnowsze GPU  :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, RTX4090 napisał:

Pisałem już tutaj kiedyś, początkowo dawałem testy w 4K DLDSR, ale po któreś wersji W11 ( jestem w teście W11 Canary Edition) DLDSR całkowicie mi pitoli system. Jest mordęga żeby wymusić poprawne działanie ( często wiąże się to z koniecznością szukania pliku ustawień gry aby wyczyścić i móc odpalić grę )  i odpuściłem sobie testy w 4K.  Prawdopodobnie stery nie są full kompatybilne z tak testową wersją W11 

Odpal zwykłe DSR do 4k. Mi normalnie działa na windzie 11 tylko, że ja przeważnie skaluję do 8k w starszych gierkach. No, ale działa bez problemu.

5 minut temu, kadajo napisał:

To wyłącz FG, DLSS i ustaw wszystkie opcje w tej grze na maksa i patrz co się będzie działo. RTX klęknie i pęknie jakby to Voodoo było, a nie najnowsze GPU  :D

Nie wiem jak w tej grze więc zalecałem inne.

Np. Quake RTX lata z RT w natywnym 4k ~100fps i solidnie dociska(malutkie demko na steam za free dla każdego do pobrania na szybko do testów). Metro enhanced w 4k z RT też będzie miało dobry fps i na pewno będzie dociskać GPU.

Edytowane przez lukadd
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, lukadd napisał:

Nie wiem jak w tej grze więc zalecałem inne.

Emperor-do-it GIFs - Get the best GIF on GIPHY

:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, lukadd napisał:

Odpal zwykłe DSR do 4k.

Nie ma znaczenia DSR czy DLDSR w tej wersji W11 jest to całkowicie wysypane ( zwykły W11 to wersja 2200, natomiast moja testowa jest z gałęzi 25300). Dawałem zgłoszenie ale nie było napraw. Taka mała ciekawostka dwie wersje systemu były tak skopane że nie odpalało się menu control panel NV 

Zrzut-ekranu-2023-03-27-213619.jpg

  • Like 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Dżony Bi napisał:

To jest loteria. Moze mniejsza z PCB Nvidii, ale trafiaja sie tez.

https://youtu.be/3miI-n-mgNY

Serio kogoś obchodzą piszczące cewki przy 1000 fps? I to jeszcze na open benchu?

Przy takim fps zasilacz jest ważniejszy od samej karty. 

Robienie sensacji z niczego :) 

 

Edytowane przez MaxaM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No właśnie im więcej FPS tym cewki bardziej dra ryja :E

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

No właśnie im więcej FPS tym cewki bardziej dra ryja :E

I co to zmienia jeśli każdy ma i tak fps locka/vsynca włączonego? :) 

Wcześniej miałem Ventusa 2070 i piszczał bardzo podczas ładowania testów w 3d marku i... to było jedyne miejsce (milion fps). Na co dzień miałem ustawionego locka na 97 fps (monitor 100Hz) i była zawsze absolutna cisza na cewkach :) 

Co ciekawe, po zmianie na BQ13 cewki ustały całkowicie podczas ładowania scen w 3d marku :) 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Słabe cewki potrafią drzeć nawet przy dość niskim fps np. ~60 :E, ale przy wysokim obciążeniu GPU.

Edytowane przez lukadd
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, lukadd napisał:

Słabe cewki potrafią drzeć nawet przy dość niskim fps, ale przy wysokim obciążeniu GPU.

Nie no jasne :) Tylko zwracam uwagę, że nagrania cewek na open benchu przy 1000 fps kompletnie nic nie znaczą :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, RTX4090 napisał:

Nie ma znaczenia DSR czy DLDSR w tej wersji W11 jest to całkowicie wysypane ( zwykły W11 to wersja 2200, natomiast moja testowa jest z gałęzi 25300). Dawałem zgłoszenie ale nie było napraw. Taka mała ciekawostka dwie wersje systemu były tak skopane że nie odpalało się menu control panel NV 

W quake 2 rtx ze steam jest skalowanie rozdzielczości w budowane w grę. Z 1440p będzie to raczej 150%, aby zrobić 4k. Na pewno zadziała.

W metro exodus enhanced jak nie grałeś to szczególnie polecam. I z tego co pamiętam tam też jest w menu ustawień faktor dla skalowania, ale nie pamiętam jak się skaluję z wartościami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, SebastianFM napisał:

W jednej do tej pory skopanej pod kątem wykorzystania CPU grze. Przy włączonym RT. Przy procesorze sprzed kilku generacji. Tylko w niektórych lokacjach. Troche dużo tych wymagań, żeby uzyskać 2 razy więcej FPS.

Przed chwilą pisałeś, że nigdy tak nie będzie, to od ręki podałem przykłady dwóch gier, gdzie o dziwo tak jest i nie trzeba nawet bardzo kombinować żeby taki efekt uzyskać. Co do CPU, jakich kilku generacji jak on jeszcze roku nie ma? :)  W MSFS 5800X3D wyprzedza wszystko co Intel aktualnie ma w ofercie:

pjaNF5vrBWU8rSHZsHZAQf-1200-80.png.webp

W Wieśku plasuje się między 13900k a 13600k (choć to testy sprzed RT) https://www.purepc.pl/amd-ryzen-9-7950x3d-vs-intel-core-i9-13900k-test-wydajnosci-najszybszych-procesorow-kto-wygra-pojedynek-tytanow?page=0,28

A to i tak za mało :)

Właśnie im mocniejsze GPU, tym częściej będziesz miał sytuacje, że nawet w wysokich rozdzielczościach gry zbliżają się do limitu CPU, a wtedy zysk z FG rośnie. X2 jest po prostu górnym limitem dla tej technologii a nie jakąś nieosiągalną teoretyczną granicą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W taki sam sposób jak przykład z Wiedźminem 3 z RT to możnaby udowodnić wiele rzeczy, że np. DLSS nie zwiększa w ogóle wydajności. Tylko, że to jest głupota podawanie takich przykładów.

Ja pisałem o normalnej sytuacji. W normalnej sytuacji to karta graficzna jest obciążona w 100%. Każdy chyba do tego do tej pory dążył? Żeby nie było bottleneck'u. A teraz to się nagle okazuje, że karta graficzna ma zapas mocy. No ciekawe.

Nie podawaj więcej Wiedźmina 3 z RT za przykład bo dodam cię do ignorowanych. ?

Nie zgadzam się z tobą. Mocne GPU to przeważnie po to, żeby grać w wyższej rozdzielczości i na wysokich ustawieniach, z RT. A jak ktoś chce mieć 240 FPS w FullHD to wiadomo, że kupuje najmocniejszy procesor.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo jest jakieś głupie myślenie ze jak karta nie chodzi na 100% to się marnuje ???

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

14 minut temu, SebastianFM napisał:

Tylko, że to jest głupota podawanie takich przykładów.

To nie głupota, to życie :E

https://www.eurogamer.net/digitalfoundry-2022-nvidia-geforce-rtx-4090-review-extreme-performance?page=8

Spiderman Remastered w testach Digital Foundry też pokazał wzrost x2 z FG. W 4k +RT. To już mamy trzy gry, gdzie niemożliwe staje się możliwe. ;)

3 godziny temu, SebastianFM napisał:

Nigdy nie będzie 2 razy więcej FPS ponieważ generowanie klatki też zajmuje czas.

Cytat

and once again you can see the end result here - a doubling of frame-rate with DLSS 3. 

Pewnie, w idealnych warunkach nie byłoby nigdy bottlenecków na CPU, ale w praktyce bywa już różnie. Nawet na procesorach z górnej półki.

  • Confused 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Portal RTX ( max ustawienia )

FG off- 55 fps 
FG on - 95 fps 

1,73X wzrostu wydajności. 

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak bez DLSS. Native 1440p + max ustawienia jakie gra oferuje. Test na poziomie 16 jak pamiętam. 

1.jpg

 

2.jpg

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, someI napisał:

 

To nie głupota, to życie :E

https://www.eurogamer.net/digitalfoundry-2022-nvidia-geforce-rtx-4090-review-extreme-performance?page=8

Spiderman Remastered w testach Digital Foundry też pokazał wzrost x2 z FG. W 4k +RT. To już mamy trzy gry, gdzie niemożliwe staje się możliwe. ;)

Co ty chcesz na siłę udowodnić?

W tym teście Marvel's Spider-Man na RTX 4090 w natywnym 4K ma prawie tyle samo FPS co po włączeniu DLSS w trybie Performance. Widać, że gra siedzi na CPU. Ja tego nie neguję.

Miles-Morales jest lepiej zoptymalizowany, miesiąc temu dostał jeszcze patcha.

Wiedźmina 3 z RT też prędzej czy później naprawią.

Ja mogę udowodnić głupim przykładem, że FG nawet zmniejsza ilość FPS. Sackboy'a z wyłączonym RT i DLSS. Wyrenderowanie zwykłej klatki zajmuje wtedy mniej czasu niż generowanie pośredniej.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

MFS to kiepski przykład, bo tam gra nie wykorzystuje CPU i FG ratuje sytuację że faktycznie możemy mieć x2 klatek, ale to nie mówi o tym jak działa FG. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, galakty napisał:

MFS to kiepski przykład, bo tam gra nie wykorzystuje CPU i FG ratuje sytuację że faktycznie możemy mieć x2 klatek, ale to nie mówi o tym jak działa FG. 

Bawią mnie zawsze takie z czapy argumenty. Bo gra zepsuta, bo to, bo tamto. 

Fakt jest taki, że w FM generator dubluje klatki. Kogo obchodzi jak zbudowana jest gra i co ją boli? 

Niektórzy tu do wszystkich faktów starają się dorobić swoje ideologie pod własne teorie, byle tylko im się zgadzało coś w głowie. 

  • Confused 3
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Witam, zamierzam sam zainstalować sobie monitoring wokoło domu i mam pytanie, ponieważ jestem laikiem. Czy można tak połączyć kamery za pomocą tych extenderów? 
    • Postaram się podrzucić następnym razem, jak będę na miejscu. Jak byłem ostatnio, to tyle pamiętam, że łapało LTE2100 z przekaźnika na odległości niecałych 4 km, a moc sięgała niżej niż -90dBm. Ogólnie tragedia z wczytaniem najprostszej strony internetowej, u 3 operatorów podobnie.   Powiem tak - została ta antena wybrana i zamontowana przez "fachowca" na zlecenie innych domowników. Ja się na tym tak nie znam, ale zanim się dowiedziałem jeszcze co tam w ogóle zostało zamontowane, to czułem już, że to będzie bubel, bo co innego może taki "fachowiec" zamontować. No i widzę, że moje przypuszczenia się potwierdzają. Żadnej poprawy to nie da? Bo trochę teraz ciężko będzie to zdjąć i rozmontować, nie wspominając już o poniesionych kosztach i ewentualnych następnych kosztach zakupu nowej anteny. Czy jesteś w stanie odpowiedzieć na resztę pytań dotyczących routera? Na przykład takie złącza to pewnie i tak zawsze będą te same, więc niezależnie od anteny router chyba można wybrać już teraz (mogę się mylić!). Chciałbym szczerze mieć coś ogarnięte przez majówką, o ile jest to osiągalne.
    • Witam po rocznej przerwie ; -). Odnawiam temat. Jak można łatwo odgadnąć, w poprzednim roku nic nie wyszło z kupna PC. Nic jednak straconego, gdyż jestem aktualnie gotowy do kupna gotowego zestawu lub zbudowania własnego PC. Budżet za samą jednostkę z softwarem (OS + Office) +/- 10000zł. Mogę dołożyć, o ile będzie miało to sens. Na początek, znalazłem taką oto promo w X-KOM: https://www.x-kom.pl/p/1220819-desktop-g4m3r-hero-i7-14700f-32gb-1tb-rtx4070s-w11x.html?sm=lowcygier Czy to dobra oferta? Czy też lepiej zbudować własną maszynę od zera?    
    • Świetne rady, autor tematu gra w 3440x1440, więc jakim cudem warto zmieniać 4070Ti na 4070Ti Super, skoro premiera RTX 5000 jest tak nieodległa ? Zanim braknie mu 12GB VRAM w tej rozdzielczości to będzie premiera RTX 6000. Więc @andriejek69 jak masz zmieniać teraz kartę to albo coś dużo mocniejszego, albo czekaj na nowe RTXy. Chyba, że faktycznie chcesz pograć w Cyberpanka z Path Tracingiem, ale tam nawet 4070Ti Super z 16GB to będzie za mało. Zrobisz ja uważasz, ale osobiście uważam taką zmanię za kompletnie bezsensowną, bo obecna kara Ci wystarczy do tej rozdzielczości, a jak zmieniać to na 4090, żeby faktycznie poczuć różnicę, teraz dostaniesz 10% to wydajności. Jedyna opcja to sprzedaż obecnej karty za dobrą cenę i niewielka dopłata.
    • Trudne się wylosowało... Monitorów z tunerem jest jak na lekartwo a szybszych niz 60hz tym bardziej. Nie ma mowy też o oledzie ani miniledzie z tunerem chyba że chodzi o telewizor to już prędzej coś znajdziesz.  Nie podałeś specyfikacji swojego komputera to też niezbyt można powiedzieć czy poradzi sobie z monitorem 4k np. (Samsung monitor m7 i m8) mają smart tv ale tunera już nie mają... Dodatkowo są na matrycy VA co nie każdemu może przypaść do gustu. Najlepszym rozwiązaniem będzie kupno możliwie najlepszego monitora na miniledzie/oled (jeżeli nadal mówimy o budżecie 4000zł) i jakiegoś smartboxa (googletv) z tunerem i podłączenie go do monitora poprzez HDMI.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...