Skocz do zawartości
Tombycz

NVIDIA RTX 50x0

Rekomendowane odpowiedzi

40 minut temu, kadajo napisał:

zrobiło testy z 32 i 64 i jest różnica wiec

Spora różnica?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Muszę przyznać, że te plotki o premierze 5070-tki w lutym wzbudziły u mnie wątpliwości. Za miesiąc miałem sprzedawać 4070 Super w uczciwej cenie i brać 4070 Ti Super za ~2900 zł. A teraz to już sam nie wiem :troll:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, Radio_Tirana napisał:

Muszę przyznać, że te plotki o premierze 5070-tki w lutym wzbudziły u mnie wątpliwości. Za miesiąc miałem sprzedawać 4070 Super w uczciwej cenie i brać 4070 Ti Super za ~2900 zł. A teraz to już sam nie wiem :troll:

Bierz 5090

Pamiętaj im więcej kupujesz tym więcej oszczędzasz :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
31 minut temu, Radio_Tirana napisał:

Muszę przyznać, że te plotki o premierze 5070-tki w lutym wzbudziły u mnie wątpliwości. Za miesiąc miałem sprzedawać 4070 Super w uczciwej cenie i brać 4070 Ti Super za ~2900 zł. A teraz to już sam nie wiem :troll:

Wszystko rozbija się jaka będzie cena i jaka będzie ta 5070-tka. Jeśli 16gb to spoko, jeśli 12gb to nie chciałbym nawet na nią moczu oddać

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

5070 12GB do 1080p
5080 16GB do 1440p.
5090 32G od 1440p wyżej :E

Kurteczka wszystko skroi na miarę ;)

Edytowane przez lukadd
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ten uczuć kiedy xx70 nie wystarcza do 1440p... 

  • Sad 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, lukadd napisał:

 

Kurteczka wszystko skroi na miarę ;)

Z jedną miarą będzie kłopot...z miarą portfela zwykłego gracza 🙂

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi sie, ze sens czekania na nowy gen osob chcacych kupic na dniach karte bedzie tylko i wylacznie podyktowane tym, czy nowe karty beda mialy cos czego stary gen nie dostanie, bo jak ex ficzerow nie bedzie to raczej nie warto czekac tylko brac i cieszyc sie juz dzis.

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 minut temu, AndrzejTrg napisał:

Z jedną miarą będzie kłopot...z miarą portfela zwykłego gracza 🙂

No co, portfel też będzie skrojony :E

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 minut temu, galakty napisał:

Ten uczuć kiedy xx70 nie wystarcza do 1440p... 

Do 1440p jeszcze na dlugo starczy 12gb, ten 1% gier skopanych co im malo to nie ma co sobie glowy zawracac, zapewne bedzie nowszy sposob kompresji oraz duzo wieksza przepustowosc na GDDR7.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zobaczymy co się będzie działo w 5070, ja już taki pewny nie jestem. Do tego wymagany mocny CPU, nawet na 5800X3D w skopanych grach miewam dropy do 80 FPS XDDD

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czasem się zastanawiam czy te narzekanie na 12 GB w rozdzielczości 1440p to nie jest zbiorowy trolling. 

Niedawno przeszedłem Nobody Wants to Die z włączonym DLAA - zajęte 8 GB

Teraz gram w God of war Ragnarok z DLAA i generatorem klatek - zajęte 8,8 GB. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Phoenix. napisał:

Do 1440p jeszcze na dlugo starczy 12gb, ten 1% gier skopanych co im malo to nie ma co sobie glowy zawracac

Tak będzie, ale właśnie pojawi się z 2 gnioty AAA w roku gdzie devi skopią optymalizację i będzie płacz, że jak to texturek na ultra nie można włączyć :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak gra skopana to  i 16gb bedzie malo, dlatego mowie. 16gb w 4080 tez bez problemu styka do 4k.

Teraz, lukadd napisał:

Tak będzie, ale właśnie pojawi się z 2 gnioty AAA w roku gdzie devi skopią optymalizację i będzie płacz, że jak to texturek na ultra nie można włączyć :E

Ja to rozumiem i kazdy by chcial wiecej vram ale nie bede robil z tego nie wiadomo jakiego problemu, a premierowe crapy omijac szerokim lukiem bo najpierw sie narzeka na brak vram ale do skopanego gniota to ci sami piersi leca na premiere ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, lukadd napisał:

Tak będzie, ale właśnie pojawi się z 2 gnioty AAA w roku gdzie devi skopią optymalizację i będzie płacz, że jak to texturek na ultra nie można włączyć :E

I oczywiście to będzie gra gdzie miliony ludzi ją kupiło, tak zwane głosowanie portfelem 🤣

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 minut temu, Phoenix. napisał:

Wydaje mi sie, ze sens czekania na nowy gen osob chcacych kupic na dniach karte bedzie tylko i wylacznie podyktowane tym, czy nowe karty beda mialy cos czego stary gen nie dostanie, bo jak ex ficzerow nie bedzie to raczej nie warto czekac tylko brac i cieszyc sie juz dzis.

5070 ti 16gb była  by pewnie fajną kartą do ultra wide

 

Tylko zobaczymy jak cena :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Radio_Tirana napisał:

Czasem się zastanawiam czy te narzekanie na 12 GB w rozdzielczości 1440p to nie jest zbiorowy trolling. 

Niedawno przeszedłem Nobody Wants to Die z włączonym DLAA - zajęte 8 GB

Teraz gram w God of war Ragnarok z DLAA i generatorem klatek - zajęte 8,8 GB. 

Nie to jest efekt fundamentalnego braku zrozumienia różnicy między pamięcią wymaganą do bezproblemowej płynnej gry a tym ile silnik jej sobie zaadresuje bo może :E

Imho jak ktoś kupuje gpu na 2-3 lata to spokojnie mu styknie 12GB. Jak ktoś kupuje z myślą o trzymaniu latami aż nie padnie to faktycznie może być mało.

Coś jak 3070 z 8GB wtedy było na styk, teraz już boli ale minęły 4 lata.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skończyły się czasy trzymania GPU na lata, w przypadku CPU tak, jasne pakujesz X3D i masz spokój, ale GPU? Nie dość że wydajność ciągle odjeżdża dość znacząco, to wychodzą techniki DLSS/FG i stara generacja odstaje coraz mocniej.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja akurat spędziłem z 60h w HL i mnie szlag trafiał grając w nią wcześniej na 12gb vramu. Tak, optymalizacja skopana ale nic nie poradzę na to że to była moja ulubiona gra. Na 16gb vramu pełen komfort. A liczba skopanych w ten lub inny sposób gier obstawiam że będzie rosła bo jest dlss/fg i mają wywalone na optymalizację 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
48 minut temu, lukadd napisał:

No co, portfel też będzie skrojony :E

Skroić na miarę, a skroić do cna 🙂 to jest różnica.

23 minuty temu, galakty napisał:

Skończyły się czasy trzymania GPU na lata, w przypadku CPU tak, jasne pakujesz X3D i masz spokój, ale GPU? Nie dość że wydajność ciągle odjeżdża dość znacząco, to wychodzą techniki DLSS/FG i stara generacja odstaje coraz mocniej.

Wiesz co? Gtxa970 wymieniłem po 9 latach, teraz myślę że przynajmniej 5 lat pociągnie 🙂

Edytowane przez AndrzejTrg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak ktoś zjeżdża z detalami co roku coraz mocniej to tak, pewnie. Potem sprzedaje kartę za 500 zł i kupuje nową za 4000 zł (bo takie ceny będą żeby kupić coś sensownego) i znowu. 

ale jak ktoś chce utrzymać ilość FPS i grafikę, to nie ma zmiłuj, musi zmieniać co te dwie generacje chociaż.

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Też tak myślę co 2 generacje zmieniać. Ale gdzie te gry na które warto zmienić 3080? Wiesiek 4 czy gta6 pode mnie może;)
Dlatego ja chyba poczekam aż wyjdzie refresh z większym vram i lepsza oferta cena/wydajność jak teraz w serii 4000

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie, o czym my rozmawiamy? Unreal Engine 5 to optymalizacyjny gniot. Pisalem o tym wczesniej. Porownajcie UE5 do Decimy. Jak wyglada i jak chodzi Horizon FW na PC....bajka.

Teraz wiekszosc producentow gier przechodzi na UE5 niestety.

Mozemy sobie gadac o wydajnosci nowych kart graficznych a problem i tak lezy gdzie indziej. Chcialem kupic 5090 ale powoli trace ochote na granie w gry gdzie producent nie chce mnie jako gracza wypuszczajac nie dokonczone gry, slabo zoptyamlizowane i do tego wszedzie wciska LGBT.

 

Edytowane przez roman.kosecki88@interia.pl
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlatego zaczyna się od 4k , a kończy na u.low 640x480 😁 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...