Skocz do zawartości

Rekomendowane odpowiedzi

7 godzin temu, Kynareth napisał:

Aż trudno mi uwierzyć by bez DLSS nawet 4090 osiągał tylko 23 fps w Cyberkupie 2077. Co oni tam odwalili z tym ray-tracingiem? Widać w ogóle jakąś zauważalną różnicę? Czy jedynie dla poczucia, że ma się Wszystko na Ultra? 4090 na pewno jest znacząco szybsze od 3090, które kosztuje teraz $1083 (czyli 4090 jest 48% droższe). Poza Cyberpunkiem to w co się będzie na tym grało?

RTXDI, promienie w nowej wersji odbijaja się wiele razy a nie tylko raz jak w oryginale i odbicia w pełnej rozdzialce, a nie jak obecnie w polowce.

Innymi słowy ma prawo spaść wydajność dwa razy względem oryginału. 3090ti w 4K bez DLSS w psycho robi coś ok. 22 klatek to teraz zrobi z 10, w dlss performance dobije do 30

 

4090 robi 22, w dlss 2 byłoby 60, ale magia interpolacji zrobi 90.

Edytowane przez MroczneWidmo
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, frog67 napisał:

Może na TV tego ludzie nie dostrzegą, ale monitory to co innego, a jeszcze jak dodamy tytuly co uderzają kiepskim AA po oczach to już całkiem

Nie musiałeś nawet zaznaczać, gołym okiem widać że z prawej strony mydełko Fa 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, sideband napisał:

Ty myślisz, że inne złącza mają dużo odmienne parametry w tej kwestii? To złącze miałem pod ręką bo szukałem do kupienia, ale jak Ci chcę to sobie poszukaj molexa i innych to się zdziwisz.

Dlatego powinni zrobić pod XT90 :E nie dość że dostarczy każdą moc jaką trzeba z użyciem jednej wtyczki to wytrzyma minimum kilkaset cykli

 

Planowane postarzanie i nic więcej. Za jedyne 10000 PLN :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, kadajo napisał:

Już za chwilę już za momencik :E

Nie licz na to ;)

Chociaż w sumie widzę w tym potencjał.

RTX RetroTracing :E 
Completely New And revolutionary architecture with Nvidia Neural Retro Flow Aclelerator Units.

Do tego chyba będzie służyć NVIDIA remix i tak szczerze to jedyna rzecz z tej patopremiery, która jestem zainteresowany.

 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, maras2574 napisał:

U mnie jeszcze zapas (435mm), więc czekam na 50xx :E

Suprimek tylko 280mm ;)  https://www.msi.com/Graphics-Card/GeForce-RTX-4090-SUPRIM-LIQUID-24G/Overview

Ostrzę zęby na niego, mam teraz AIO 280 na Aorusie i polecam. Tempy w grach do 65 stopni w małej zamkniętej budzie.

Edytowane przez zozolek
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, lukadd napisał:

Ale corsair coś tam totalnie odleciał. 1200W, aby napędzić 600W GPU

Corsair to mógłby robić normalne kable do zasilaczy. Są niebywale sztywne i twarde. Nie wiem, jak ktoś z małą obudową jest w stanie je w obudowie użyć. A podłączenie 8 pin pod kartę graficzną to już wyczyn. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Radio_Tirana napisał:

Corsair to mógłby robić normalne kable do zasilaczy. Są niebywale sztywne i twarde. Nie wiem, jak ktoś z małą obudową jest w stanie je w obudowie użyć. A podłączenie 8 pin pod kartę graficzną to już wyczyn. 

za to dobrze i w miarę szybko się sprzedają PCi-e na OLX, a w tej cenie można kupić od @duniek mniej sztywne, równie dobre i na wymiar, na bogato to wiadomo - wymiana u Zawiszy. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, wkamil73 napisał:

Widzę, że zaczynasz się łamać :szczerbaty:

Mówisz że będzie jak z Alder Lake ? :) Nie nie, ja tylko się przyglądam :E

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, maras2574 napisał:

Mówisz że będzie jak z Alder Lake ? :) Nie nie, ja tylko się przyglądam :E

Jak by to powiedział mistrz Yoda, sztokholmski syndrom widzę tu... :szczerbaty:

6 minut temu, Radio_Tirana napisał:

Corsair to mógłby robić normalne kable do zasilaczy. Są niebywale sztywne i twarde. Nie wiem, jak ktoś z małą obudową jest w stanie je w obudowie użyć. A podłączenie 8 pin pod kartę graficzną to już wyczyn. 

a dodatkowo wkładają te kondensatory w takich miejscach w, których akurat najczęściej potrzeba zrobić łuk

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, wkamil73 napisał:

Jak by to powiedział mistrz Yoda, sztokholmski syndrom widzę tu... :szczerbaty:

Nic z tych rzeczy, nie tym razem. Obraziłem się na Jensena :rozga::E

A tak serio, póki co nie brakuje mi wydajności ;)

Edytowane przez maras2574
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, ŁowcaPisowców napisał:

https://www.overclock3d.net/news/power_supply/corsair_releases_12_4_pin_12vhpwr_power_connectors_to_upgrade_their_existing_psus/1

Fajnie ze wedlug Corsair'a do 4090 to tylko ich zasilacze 1000W pociagna?

*600W load requires a 1200W rated CORSAIR PSU or higher. 450W load requires 1000W or higher. 300W load requires 750W or higher.

Kabel ma tylko dwie wtyczki x8 po stronie zasilacza więc bardzo mnie to nie dziwi. U Seasonica to samo. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie kurła zastanawia rzecz jedna... Skoro teraz dali feature exec do 40xx DLSS 3.0 i moja 30xx stała sie obsolete to czy to juz standard bedzie i w serii 50xx bedzie dlss 4.0 i cos jeszcze i seria 40xx tez juz bedzie obsolete... i 5080 bedzie za 8.999 pln... Emmmm wkurza mnie to ze 2 letnia karta juz jest beeee... 2 letnia... 2 lata ma... 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem seria 4X00 nie jest warta wydawania pieniędzy.

Technologicznie nic nie wnosi. Wzrost wydajności tylko z powodu wzrostu mocy poprzez dodanie kolejnych jednostek i wzrost poboru energii.

Podstawowe elementy są identyczne jak w wersji 3X00

 

Jedyne zmiany poszły w kierunku upscalingu. Co może miec istotne znaczenie w niższych wersjach z obciętą magistralą pamięci.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe jaka będzie najsłabsza karta by pograć w tego zremasterowanego Morrowinda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
33 minuty temu, aureumchaos napisał:

Mnie kurła zastanawia rzecz jedna... Skoro teraz dali feature exec do 40xx DLSS 3.0 i moja 30xx stała sie obsolete to czy to juz standard bedzie i w serii 50xx bedzie dlss 4.0 i cos jeszcze i seria 40xx tez juz bedzie obsolete.

Taki zwyczaj nVidii, więc całkiem możliwe.

20 minut temu, darkmartin napisał:

Technologicznie nic nie wnosi.

Testów nie widziałem. (nie licząc slajdów od Jensena) Bo jeśli te karty będą miały dużo wyższą wydajność/W, to dla mnie coś one wnoszą, bo tego potrzebuję.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, darkmartin napisał:

Wzrost wydajności tylko z powodu wzrostu mocy poprzez dodanie kolejnych jednostek i wzrost poboru energii.

A przez ostatnie lata to jak dodawali same jednostki dzięki czemu był wzrost wydajności to tez tak marudziles?? 🤣

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, MroczneWidmo napisał:

RTXDI, promienie w nowej wersji odbijaja się wiele razy a nie tylko raz jak w oryginale i odbicia w pełnej rozdzialce, a nie jak obecnie w polowce.

I

Czyli z "ray-tracing w grze robionej na konsole z 2013r. do tego zaszumiony jak cholera i szczątkowy" zamieniamy na "ray-cingw grze robionej pod konsole z 2013r".
I...
mamy 22fps w tym na karcie za 10 000.
No dobra. Przekonali mnie. RT to przyszłość i warto się na nim skupiać. ;]

Za 2 lata będzie w najlepszym razie 44fps. Za 6 lat od teraz to będzie 88fps. Za 8-10 lat będzie w końcu 120fps w grze robionej pod konsole z 2013 (no dobra, niech będzie, że pod konsole z 2016 gdzieś, bo wyższy poziom detali jednak, a Xbox Series S to gdzieś tak technologicznie rok 2016, bo wtedy mogli ją spokojnie wydać)

To mamy rok 2030 w hurraoptymistycznym scenariuszu, gdzie można normalnie pograć w gry z lat 2010-2020 w 120fps, a w niektóre i tak tylko w 60fps. Realnie to ten hurraoptymistyczny scenariusz zamieniłbym na 2035-2040. A gdzie więcej detali i pełny raytracing lub taki, który faktycznie da to, co najfajniejsze czyli np. fajne odbicia w szkle, które wymagają nie 2 czy 4 promieni a np. 500?
A jak do tego czasu wejdą wyświetlacze HFR, to kiedy RT będzie miało sens? W 2060?
 

Apropo DLSS 3 na starych kartach. Zobaczcie, że ta nowa seria zmarnowała jakąś chyba połowę na nie-gamingowe bzdury typu AI, Tensory, RT. I przede wszystkim ten cache. On jest podpięty chyba tylko pod shadery i te segmenty AI/Tensor/RT. Inaczej w rasteryzacji byłaby większa różnica, choć jeśli 4060 aka 4080 12GB faktycznie by była na poziomie 3080ti (w co bardzo wątpię) to może. 
W każdym razie, tego cache'u jest tam od cholery. Może to, akurat tym razem, nie jest ściema Nvidii.
Z drugiej strony oni już raz skłamali, że blokują kopanie sprzętowo, a potem ludzie to złamali przez software, więc absolutnie im nie można wierzyć.

Gdyby AMD zależało na rynku PC gaming to by mogli wydać kartę odchudzoną, zupełnie bez AI i skomplikowanych shaderów. I by mogło ceną i wydajnością rasteryzacji konkurować z półką wyżej Nvidii. 
Kiedyś tak było, więc Nvidia po serii GPU robionej nie dla graczy a bardziej dla innych rynków, czyli 480, wydała następnie karty typu 560 i 660. I o dziwo można było natychmiast uzyskać więcej wydajności połową tej ilości tranzystorów. Jeśli AMD też idzie w tensory a na pewno do rynków non-gaming idzie, to nie będziemy nawet wiedzieć ile tranzystorów w 4090 się marnuje. Moim zdaniem jeśli przyrosty są przy 10nm -> 6nm tak niskie, a konferencja na gry poświęta 1% czasu, to gdzieś połowa to balast tak zbędny jak funkcje do zaawansowanych obliczeń w GTX Fermi 480. Tylko tym razem Nvidia nie wyda GPU do gier. Bo już im się nie będzie chciało projektować. Jak ludzie kupią GPU do "pracy" jako gamingowe, za 10 000, a projektowanie układu GPU w nowych procesach jest coraz droższe i dochodzić ma w 2nm do 500mln $. Powiedzą, żeby DF testowało z DLSS3 bo to bardzo dobra rzecz jest, i tyle. Problem solved. ;)

Przypomnę: 700mln 8800gt, 16 ROP, 64 TMU. 70 miliardów 4090 i gdzie te 1600 ROP i 6400 TMU?

 

 


No i na koniec zostaje kwestia czy ten DLSS3 w ogóle jest warty używania. Na moje to jak nie wyodrębnią go na osobną funkcję, to mogą z tym spadać na drzewo. Nienawidzę rozmyć i mydła. Nawet obraz przepuszczony przez DSR czy jakikolwiek postprocess AA, już traci na żywości i ostrości. Jak wychodził Max Payne 3 to było widać jak leci na pysk nie tylko ostrość, ale i blakną kolory. Chyba to wynika z tego, jak dane są przepuszczane przez GPU. Jak leci przez filtr cała klatka, to pewnie dochodzi jakaś lekka kompresja albo przesyłane jest w stratnej jakości. Przynajmniej DSR na 7xxx i 9xxx wygląda gorzej niż powinien, nawet na suwaku smoothness na 0. Może na nowszych już nie. W każdym razie mając to na uwadze, najpierw muszę zobaczyć obraz jak natywny, a potem mogę myśleć, czy chcę używać interpolatora klatek.

Edytowane przez Ronson
  • Confused 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, Kyle_PL napisał:

Testów nie widziałem. (nie licząc slajdów od Jensena) Bo jeśli te karty będą miały dużo wyższą wydajność/W, to dla mnie coś one wnoszą, bo tego potrzebuję.

Rdzenie CUDA czyli shadery są takie same jak w 3X00 modyfikacja dotyczy tylko tensorów i RT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, darkmartin napisał:

Rdzenie CUDA czyli shadery są takie same jak w 3X00 modyfikacja dotyczy tylko tensorów i RT.

Czyli twierdzisz, że w zwykłych grach, bez używania DLSS i/lub RT nie będzie różnicy w wydajności/W między RTX3xxx a RTX4xxx?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście, że będzie... w końcu jest niższa litografia ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Kyle_PL napisał:

Czyli twierdzisz, że w zwykłych grach, bez używania DLSS i/lub RT nie będzie różnicy w wydajności/W między RTX3xxx a RTX4xxx?

Przy tym samym taktowaniu i takiej samej liczbie rdzeni cuda będzie wolniej bo jest węższa magistrala pamięci.

Myślę, że niższe modele serii 40X0 są tak zaprojektowane aby nie konkurowały z 30X0

Czyli będzie to fajnie wyglądać na papierze w 4K w stosunku do 30X0 ale robotę będzie robił upscaling.

Niektórzy to kupią i chętnie wydadzą na to kasę.

30X0 i 40X0 będzie długo żyć obok siebie - pełne magazyny i koparki.

Nie ma co się ekscytować 4090 dlatego, że niższe modele są drastycznie przycięte co widać już na 4080

  • Confused 3
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...