Skocz do zawartości

Rekomendowane odpowiedzi

2 minuty temu, Khold napisał:

Prawda jest taka, że jak ktoś ma coś na poziomie 3080 to spokojnie pociągnie na tym do następnej generacji i można olać tą farsę zwaną RTX 4000.

Dokładnie, spokojnie pociągnie w 4k@60fps jeszcze przez dwa lata, najwyżej się suwaczki jakieś cofnie :) 

Obejrzałem materiał GN i nic tak szpetnego nie chcę w mojej obudowie :D 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest dylemat brać 3080ti/3090 za 5k czy poczekac na 4080 12 gb 

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
57 minut temu, sideband napisał:

Tak są wyniki 3.0 vs 2.0 na 4090 i 3090ti 2.0 vs 3.0 4090 to można przeliczyć wynik. 

W obliczeniach to widziałeś wykresy cudów nie ma 1.5-1.6x 3090ti vs 4090.

Do tego mogą się przyczyniać inne czynniki więc nie biorę tego na razie pod uwagę.

Ja uważam, że akurat różnica w wydajności akurat w Cyberpunk 2077 pomiędzy RTX 3090 Ti i RTX 4090 będzie znacznie wyższa, może nawet o ponad 100%. Mam podstawy do tego, żeby tak sądzić. Pozwolę sobie jeszcze raz zamieścić wykres pokazujący czas poszczególnych etapów tworzenia obrazu.

Cyberpunk 2077 1.52, 2560x1440, Ultra, RT Ultra, DLSS OFF.
Wa8PflL.png

Na RTX 3090 Ti około 30% czasu zajmuje odszumianie. Ten etap jest głównie zależny od wydajności obliczeń FP32 i tutaj spokojnie może być o 90% wyższa wydajność.
Najwięcej czasu zajmuje śledzenie promieni. Rdzeni RT w RTX 4090 jest o 53% więcej, mają one jednak znacznie wyższą wydajność. Według NVIDIA wydajność w śledzeniu promieni jest aż o 145% wyższa. W przypadku Ampere zapowiadany dwukrotny wzrost wydajności śledzenia promieni się potwierdził.
Prawdziwej rasteryzacji jest jeszcze mniej niż pokazałem.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Valeri napisał:

To jest dylemat brać 3080ti/3090 za 5k czy poczekac na 4080 12 gb 

Też się zastanawiam nad tym

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, SebastianFM napisał:

Do tego mogą się przyczyniać inne czynniki więc nie biorę tego na razie pod uwagę.

Ja uważam, że akurat różnica w wydajności akurat w Cyberpunk 2077 pomiędzy RTX 3090 Ti i RTX 4090 będzie znacznie wyższa, może nawet o ponad 100%. Mam podstawy do tego, żeby tak sądzić. Pozwolę sobie jeszcze raz zamieścić wykres pokazujący czas poszczególnych etapów tworzenia obrazu.

Papier wszystko przyjmie 2080ti vs 3080ti to 1.6x w CP2077 bez DLSS ;) 260W vs 350W 

Tam też było wklepane 2x ;)  W testach RTGI możesz wyjść więcej tylko nie ma pokrycia w grach ;) 3070 vs 2080ti 1.5x i 3080 vs 2080ti 2x przełóż to na gry ;)

Edytowane przez sideband
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zaden ampere nie ma szans z dlss3

  • Haha 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, jurekk napisał:

zaden ampere nie ma szans z dlss3

W ilości artefaktów nie ma, to fakt. :E 

  • Haha 6
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
29 minut temu, Khold napisał:

Prawda jest taka, że jak ktoś ma coś na poziomie 3080 to spokojnie pociągnie na tym do następnej generacji i można olać tą farsę zwaną RTX 4000.

 

zawsze bylo stwierdzenie ze karty sie zmienia co 2 generacje .

i tak 2 zdania ja juz tak na chlodno ....entuzjasci mający kupic- i tak kupią tego rtx-xa 4090.

reszta ktora bedzie chciala juz grac w 4k albo bedzie kupowala rtx 3080 bo dalej jest/bedzie swietna karta cena/wydajnosc albo na dzis oleje nvidie,zostanie na tym co ma grajac w 1440p .I jeszce zeby wychodzil jakis Crysis 2 graficzny killer ktory wprowadza nowa jakosc grafiki,a tu dupa kupisz karte a gier serio dobrych jakos ni widu-ni slychu.

niech "se "nivida tego rtx 4080 za jedyne 7999 zł wsadzi albo sama pogra na tym w gierki.

 

Edytowane przez Kubaś_30

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
30 minut temu, sideband napisał:

Papier wszystko przyjmie 2080ti vs 3080ti to 1.6x w CP2077 bez DLSS ;) 260W vs 350W 

Tam też było wklepane 2x ;)  W testach RTGI możesz wyjść więcej tylko nie ma pokrycia w grach ;) 3070 vs 2080ti 1.5x i 3080 vs 2080ti 2x przełóż to na gry ;)

Twój przykład nie jest żadnym argumentem. Po pierwsze to różnica w wydajności jest znacznie większa, tylko w wymagających pod kątem śledzenia promieni lokacjach a nie tak jak testuje PurePC, na pustkowiu. ? Po drugie to deklarowana przez NVIDIA o 100% wyższa wydajność dotyczyła tylko obliczeń FP32. Jeżeli używasz takich argumentów to jest manipulacja. Jak weźmiesz pod uwagę, że Turing w tym samym czasie wykonuje intrukcje INT a w Ampere ich wykonywanie wpływa na wydajność FP32 to masz już wytłumaczenie, czemu jest o 60% więcej a nie o 100%.

Ja swoich szacunków dotyczących wydajności w Cyberpunk 2077 nie opieram na jakichś domysłach. Skoro RTX 4090 ma o 52% więcej jednostek i pracują one z o 25% wyższą częstotliwością to odszumianie REBLUR będzie miało o 90% wyższą wydajność.
Wydajność śledzenia promieni musi być znacznie wyższa. Oprócz tego, co wcześniej napisałem świadczy o tym choćby to, że w trybie Overdrive śledzenie promieni dla odbić ma być obliczane w dwa razy wyższej rozdzielczości.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie podaje wyników z PPC nawet tam nie wchodzę ;) Q2 RTX też możesz zapomnieć o 2x ;) 2080ti vs 3080 jest 1.5x, a vs 3090 1.7x to są największe przyrosty w RT w czymś grywalnym.

To sobie popatrz jaki miałeś wzrost wydajności w aplikacjach, które NV pokazała w przypadku Ampere vs Turing, a jaki jest Ampere vs ADA ;) Na papierze wydajność w FP32 wzrosła 2.25x 4090 vs 3090ti, ale tylko na papierze ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Według NVIDIA to dokładnie 2,075 raza. Ja liczyłem 2000 MHz vs 2500 Mhz więc mi wyszło 1,9 a ty to chyba liczysz 2000 MHz vs 3000 MHz. ?

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapytam z ciekawości, duża różnica w chłodzeniu jest w tych kartach "seryjnych" od Nvidii? Większość firm konkurencyjnych ma 3 wentylatory a tu jest tylko 1 i to od góry?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, someI napisał:

Z dostępnością AMD też jest słabo przy każdej premierze. Czemu tam nigdy nie słyszę że to chciwe dupki sztucznie ograniczające podaż? :D

No właśnie pytam, bo przy poprzedniej premierze mądrzy ludzie na forum też twierdzili że niedobory są sztuczne. "Zaraz zaraz będą karty, to wszystko oszustwo" :E  Ten filmik też był wrzucany na laba co najmniej kilka razy. https://www.youtube.com/watch?v=zmbvUK93npo

(bardzo lubię ten filmik, zawsze go odsyłam jak ktoś mi podrzuca kolejną rewelację od MLID)

A proszę bardzo. AMD sztucznie ograniczają podaż i są chciwe dupki  :D
Happy now? ;)

Nie no, jasne, że to nie jest czarno-białe i nigdy na start nie ma miliona kart, bo trzeba czasu aby je wyprodukować. Ale jednak sztuczne robienie wrażenia "kup teraz, zrób preorder, bo potem może dla ciebie zabraknąć! to niestety typowa już zagrywka, nie tylko w kartach i nie tylko w branży elektronicznej. AMD to nie jeden człowiek. Wystarczy zmiana w zarządzie i już podejście do klienta się zmienić może o 180°. Najlepszy przykład to Sony. Odkąd zmienili tych którzy rządzą Playstation, po "for the players" nie został ślad. 
Także jasne, że AMD może robić to samo. Osobiście nie wiem na temat ich historii premier za wiele, bo nie śledzę. Brak 3D Vision = brak mojego zainteresowania. Tak było przez wiele generacji, więc nie wiem czy AMD coś robiło ale jak robiło to nie będę miał problemu ich nazwać jak wyżej :)

 

@BlindObserver
Zwinę w spoiler bo robisz niepotrzebny offtop i zmuszasz mnie do odpowiedzi w tym offtopie. Kliknij sobie a inni sobie ominą. 

 Na moje spojrzenie mówisz "analizy". Swojej opini, choć jest tym samym, to już nie potrafisz tak skrytykować. Siebie zapytać czy może też się nie znasz i czy może też nie wypisujesz głupich analiz, do których nie masz kompetencji to już nie raczysz.
Pomijasz w mojej wypowiedzi "sztuczny" przy "niedobór". Ja nie mówię, że Nvidia sprzeda 10% tego co by mogła. Ja mówię, że im zależy na zrobieniu WRAŻENIA, że karty są rozchwytywane. To nie jest, jak pisałem wyżej, czarno-biało. Są niuanse, sprawa jest skomplikowana i bez "wtyki" nie dowiesz się ani ty ani ja, na jaką skalę się coś odbywa. Może na małą, może na dużą. Po prostu tego nie wiesz. Ale moim zdaniem szanse na to, że chipy będą sobie po prostu leżeć aż 30xx się sprzedadzą są spore. A potem i Nvidia i partnerzy sobie i tak na nich zarobią, po obniżce za 2-7 miesięcy. To nie tak, że Nvidia nie chce sprzedać kart, sobie na złość.
Na koniec dokonujesz jakiejś projekcji, że ja piszę moją opinię dla poklasku. Poklasku gdzie? W tym wątku na wymierającym forum? W moim wieku? Nie mogłeś chybić bardziej. 

Może już daj sobie spokój z analizami moich postów, bo kompletnie to ci nie wychodzi, a tylko robimy to, o czym słusznie apelowałeś, żeby nie robić - offtop. 
Opinia może być taka,  z którą się nie zgadzasz. Taki urok for internetowych. Recenzje opini są marnowaniem czasu i miejsca i niczemu nie służą. Wlep ikonkę wyśmiewającą czy "zdegustowaną" i tyle starczy. Nie musisz udowadniać swojej intelektualnej wyższości, bo sobie nie musisz, jak mniemam, a mi nie dasz rady  i tak. Szkoda czasu. 

PS. Jesteś moderator. Mógłbyś coś z tym zrobić. Może zrób zasadę, że offtop autor zwija w spoiler albo post leci czy coś. Zakazywanie offtopu w tym wątku nie ma sensu, bo długo nie będzie żadnych informacji, a wiele wątków jest bardzo niebezpośrednio związanych z kartami. Osobiście wolę śmietnik niż, nie wiem jak to po naszemu się nazywa, "overpoliced forum space".
(zaraz mi zarzucisz, że chcę zabłysnąć angielskim, hehehe :szczerbaty: - ja na serio po prostu nie znam naszego odpowiednika)
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2816421-l5.jpg

jest wiele dobrych kart ada ale gigabyte daje 110mm na gaming i aorus i pełne 4 sloty

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, jurekk napisał:

2816421-l5.jpg

jest wiele dobrych kart ada ale gigabyte daje 110mm na gaming i aorus i pełne 4 sloty

Miałem 1080Ti i 3090 od aorus'a i obie ssały pałę, chłodzenie nędzne. Oni udają że aorus to topowa wersja, a tak na prawdę to średniak... Nigdy więcej aorusa nie kupię.

  • Like 1
  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, lukibossss napisał:

Miałem 1080Ti i 3090 od aorus'a i obie ssały pałę, chłodzenie nędzne. Oni udają że aorus to topowa wersja, a tak na prawdę to średniak... Nigdy więcej aorusa nie kupię.

Gigabyte to z tego co pamiętam zawsze była niższa półka jakościowa. Ale drogie rzeczy też robią, udając, że wysoka cena = super jakość.

PS. Ta współczesna moda na stylistykę że tak powiem "babską" lub dziecinną. 
Karta za 10000. Raczej wiele kobiet wśród entuzjastów high end PC gamingu to nie ma. 
A oni dowalają kolorki albo jakieś mangowe durnoty (Galax) albo jak tutaj - kolorystykę pasującą do puderniczki czy jak się zwie współcześnie zestaw do makijażu. 
Tak to by wyglądało OK, ale podświetlenie powinno mieć głęboki niebieski lub inny kolor, a nie wpadać w fiolety czy róże. Jakbym w ogóle zwracal uwagę na wygląd, to bym chyba to wszystko okleił czarną taśmą, żeby nie szpeciło :D

Edytowane przez Ronson
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, jurekk napisał:

 

jest wiele dobrych kart ada ale gigabyte daje 110mm na gaming i aorus i pełne 4 sloty

Card size
L=358.5 W=162.8 H=75.1 mm

https://www.gigabyte.com/Graphics-Card/GV-N4090AORUS-M-24GD/sp#sp

 

Wysokość prawie taka sama jak Noctua NH-D15. Tylko trzeba pamiętać jeszcze, że powietrze wychodzi z GPU bokiem.

Height (with fan) 165 mm

https://noctua.at/en/nh-d15/specification

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, lukibossss napisał:

Miałem 1080Ti i 3090 od aorus'a i obie ssały pałę, chłodzenie nędzne. Oni udają że aorus to topowa wersja, a tak na prawdę to średniak... Nigdy więcej aorusa nie kupię.

Bo u nich trzeba dać inne wentylatory :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Khold napisał:

Prawda jest taka, że jak ktoś ma coś na poziomie 3080 to spokojnie pociągnie na tym do następnej generacji i można olać tą farsę zwaną RTX 4000.

Gorzej jak ktoś siedzi na 10x0, #przegrywpc :D

Edytowane przez Piospi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Kubaś_30 To jest właśnie w tym wszystkim najsmutniejsze. Co z tego że kupisz topową karte 4090 jak nic nawet na 2023r. Nie widzę co by miało pokazać nową jakość oprawy , prezentują karte na Cyberpunk-u którego każdy kto chciał dawno ograł a zapewne po kupnie karty człowiek by z 30 minut pobiegał napawając się nowym RT i już drugi raz nie włączył. Liczyłem mocno że nowa seria kart pokryje się z nowym STALKER-em ale niestety pewnie gra wyjdzie bliżej kolejnej serii kart. Szkoda bo mimo wszystko chciałbym pograć w jakiegoś graficznego potwora ale zakładam że po za exami na PS5(obecnie ogrywany TLOU Part 1 a na horyzoncie Ragnarok) długo nic graficznie nie pozamiata. Ostatnia wymiana karty wiązała się z RDR2 więc widziałem w tym jakiś sens a teraz karta by wleciała do puchy i ogrywałbym gry sprzed kilku lat . Może jakiś czas temu zapowiedziany crysis nowy wejdzie wraz z rtx 5xxx ale do tego czasu nic nie widać.

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Szark123 napisał:

@Kubaś_30 To jest właśnie w tym wszystkim najsmutniejsze. Co z tego że kupisz topową karte 4090 jak nic nawet na 2023r. Nie widzę co by miało pokazać nową jakość oprawy , prezentują karte na Cyberpunk-u którego każdy kto chciał dawno ograł a zapewne po kupnie karty człowiek by z 30 minut pobiegał napawając się nowym RT i już drugi raz nie włączył. Liczyłem mocno że nowa seria kart pokryje się z nowym STALKER-em ale niestety pewnie gra wyjdzie bliżej kolejnej serii kart. Szkoda bo mimo wszystko chciałbym pograć w jakiegoś graficznego potwora ale zakładam że po za exami na PS5(obecnie ogrywany TLOU Part 1 a na horyzoncie Ragnarok) długo nic graficznie nie pozamiata. Ostatnia wymiana karty wiązała się z RDR2 więc widziałem w tym jakiś sens a teraz karta by wleciała do puchy i ogrywałbym gry sprzed kilku lat . Może jakiś czas temu zapowiedziany crysis nowy wejdzie wraz z rtx 5xxx ale do tego czasu nic nie widać.

Ja kupię RTX 4090 dla ulepszonego Wiedźmina 3, Phantom Liberty i nowego Plague Tale.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
25 minut temu, Piospi napisał:

Gorzej jak ktoś siedzi na 10x0, #przegrywpc :D

Oczywiście to była lekka hiperbola, bo jak ktoś ma 3070 i niżej też sobie poradzi :D

Edytowane przez Khold

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja chcę móc po prostu komfortowo grać w 1440p w gry 2014-2018. I zastanawiam się, która karta mi do tego wystarczy. 3060? 3060 Ti? 3070? 3070 Ti? Na Lovelace nawet nie czekam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe czy znowu będą problemy z kondensatorami ceramicznymi jak przy 30x0. W sumie jak to się zakończyło, bo nie śledziłem tematu. Niby jedni mówili, że wina kondensatorów, bo nie tłumiły zbyt dobrze, a inni, że wina sterowników.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś mi podpowie, która wersja 3060 Ti jest najsensowniejsza? Ktoś pamięta? Bo trochę ich jest.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...