Skocz do zawartości

Rekomendowane odpowiedzi

Nie ma co się w ogóle sugerować 4090 bo to jest faktycznie karta nowej generacji. Jest dopakowana i w niczym nie przycięta do poprzedniej generacji.

To będzie bardzo wydajna jednostka.

Jednak w niższych segmentach jest już zupełnie inaczej.

Do DLSS nie potrzebujesz tyle pamięci w 4K bo renderujesz w niższej rozdzielczości i ładujesz tekstury w niższej rozdzielczości.

Reszte załatwa upscaler - to jest to samo co dzisiaj się robi w konsolach.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, darkmartin napisał:

Do DLSS nie potrzebujesz tyle pamięci w 4K bo renderujesz w niższej rozdzielczości i ładujesz tekstury w niższej rozdzielczości.

Reszte załatwa upscaler - to jest to samo co dzisiaj się robi w konsolach.

thank-you-captain-obvious-meme.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
24 minuty temu, Keken napisał:

No i ponawiam pytanie czy w najbliższym czasie są planowane jakieś gry killery graficzne żeby ten sprzęt wykorzystać?

Wykorzystasz przecież bez problemu w dzisiejszych, szczególnie bardziej wymagających grach, w lepszej rozdzielczości i wysokim fps.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko to zawsze był bonus, a nie główny powód. Nowe GPU kupuje się dla nowych/przyszłych gier, a nie aktualnych.
I to się robi trochę śmieszne, kupujesz GPU które fajnie sobie radzi z grami które już są a te nowe jak wychodzą nagle potrzebują sztuczek bo już GPU sobie nie radzi i cyk znowu musisz kupić nowe GPU. Jak ten proces trwał 3-4 lata to było spoko, ale jak on teraz ma trwać rok góra dwa, przy kartach za ponad 7 tys. złotych... PC robi się kompletnie nieopłacalną maszynka do grania, ale tak naprawdę nieopłacalną. Tutaj naprawdę konsola zaczyna świecić jak złoto.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, SebastianFM napisał:

thank-you-captain-obvious-meme.jpg

A przeglądałeś w ogóle specyfikacje 4080 ?

4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci

12 GB 4080 ma mniej rdzeni CUDA niż 10GB 3080 nie wspomnę nawet o przepustowości pamięci.

Gdzie nastąpiła rozbudowa w tensorach 639 do 272.
widać od razu, że karta jest skonstruowana przede wszystkim pod upscaling DLSS.

 

Wszystko wskazuje na to, że niższe modele będą również mieć mniej rdzeni CUDA niż w serii 30X0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, darkmartin napisał:

4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci

12 GB 4080 ma mniej rdzeni CUDA niż 10GB 3080 nie wspomnę nawet o przepustowości pamięci.

Gdzie nastąpiła rozbudowa w tensorach 639 do 272.
widać od razu, że karta jest skonstruowana przede wszystkim pod upscaling DLSS

Wszystko wskazuje na to, że niższe modele będą również mieć mniej rdzeni CUDA niż w serii 30X0

Czyli jak ktoś nie używa tego syfu DLSS to RTX 3xxx jest szybszy od RTX 4xxx? ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

LoL  a ja ciagle marze zeby zagrac w CP77 max ultra super duper RT na opor w 60 fps ale NATIVE!!!!!

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

Tylko to zawsze był bonus, a nie główny powód. Nowe GPU kupuje się dla nowych/przyszłych gier, a nie aktualnych.
I to się robi trochę śmieszne, kupujesz GPU które fajnie sobie radzi z grami które już są a te nowe jak wychodzą nagle potrzebują sztuczek bo już GPU sobie nie radzi i cyk znowu musisz kupić nowe GPU. Jak ten proces trwał 3-4 lata to było spoko, ale jak on teraz ma trwać rok góra dwa, przy kartach za ponad 7 tys. złotych... PC robi się kompletnie nieopłacalną maszynka do grania, ale tak naprawdę nieopłacalną. Tutaj naprawdę konsola zaczyna świecić jak złoto.

Tak, bo jak się przesiadasz z PC na konsolę to automatycznie ci się coś przestawia w mózgu, że przestajesz potrzebować natywnego 4K i ustawień Ultra czy Psycho RT. Jak do tej pory DLSS kłuło w oczy to nagle dynamiczne skalowanie jest w porządku a niektórzy to nawet korzystają z upłynniacza w telewizorze, który działa 100 razy gorzej niż DLSS 3.

  • Haha 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, SebastianFM napisał:

Opowiadasz bzdury.

Po pierwsze w Turing i Ampere przepustowość pamięci jest w większości przypadków na wyrost. Można to prosto sprawdzić, zmieniając częstotliwość pamięci np. o 20%. 

Najlepszym przykładem jest właśnie RX 6900 XT, który ma szynę 256 bit zamiast 384 bit i prawie o połowę mniejszą przepustowość pamięci niż RTX 3090. Różnica w wydajności w grach wynosi średnio 10% i nie ważne czy w 1080p czy 4K.

Nie, nie można tego tak sprawdzić. Wiesz jak są dostosowywane inne parametry przy tej zmienie? Nie wiesz.

 Tak jak idioci prawie 20 lat temu twierdzili, że podnoszenie FSB w Athlonach nie ma znaczenia, bo z 133 na 166MHz widać różnicę, a z 166 na 200 i 266 nie ma jej wcale (liczby są błędne w moim przykładzie, bo słabo to już pamiętam). A czemu? Ano kontroler pamięci sobie dostosowywał parametry. Tak samo jak Ivy Bridge na pamięciach 2400 osiągał to samo co Sadny na 2133. A Bulldozer miewał te same wyniki na 4GHz co na 3.2GHz. 
Także takie "sprawdzanie" to o kant D potłuc.
Do tego jeszcze dochdzi co i jak sprawdzasz. CPU bottleneck, shadery vs. czysta wydajność, a dalej wydajność w grach 60fps vs. 180fps. Albo w VR. Wydajność średnia a wydajność 0,1% low (to jest istotniejsze niż AVG, a nawet szanowani scepe skupiają się na AVG bardziej, podczas gdy różnica w AVG o 30% może nie dać nic, a spadek w AVG o 0,5% może oznaczać aż 10% spadku w 0,1% lows)

A 6900XT nie jest najlepszym, a najgorszym przykładem, bo ta karta ma cache, którym sobie pomaga i niweluje wpływ pamięci na wydajność.

Na sam koniec jeszcze jest kwestia tego, że sama przepustowość może zawierać w sobie dwa parametry. Realną przepustowość i czasy dostępu. A zapchanie przepustowości może wpływać na czas dostępu. Zmiana szyny i zegarów oraz timingów może wpływać.  Moim zdaniem nie tylko nie masz tego jak łatwo sprawdzic, ale w ogóle nie masz jak sprawdzić, chyba że jesteś inżynierem od projektowania GPU i masz odpowiednie narzędzia do tego.

edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock.

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Kyle_PL napisał:

Czyli jak ktoś nie używa tego syfu DLSS to RTX 3xxx jest szybszy od RTX 4xxx? ?

4090 będzie zawsze szybsza ale dla niższych modeli możesz się zdziwić.

40X0 może nie być szybsze bez DLSS.

Pamiętaj, że magazyny 30X0 są pełne.

40X0 będzie moim zdaniem promowane do grania w 4K z DLSS

  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, SebastianFM napisał:

Tak, bo jak się przesiadasz z PC na konsolę to automatycznie ci się coś przestawia w mózgu, że przestajesz potrzebować natywnego 4K i ustawień Ultra czy Psycho RT. Jak do tej pory DLSS kłuło w oczy to nagle dynamiczne skalowanie jest w porządku a niektórzy to nawet korzystają z upłynniacza w telewizorze, który działa 100 razy gorzej niż DLSS 3.

No i to jest zabawne w tym co piszesz. NA PC już tez nie masz natywnego 4k i ustawień Ultra bo każą ci za nie płacić jakieś absurdalne sumy, a i tak, nie możesz grac w natywnej rozdzielczości bo potrzebujesz DLSS ?
No chyba, że w 5-10-letnie gry, lol :E

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Ronson napisał:

A 6900XT nie jest najlepszym, a najgorszym przykładem, bo ta karta ma cache, którym sobie pomaga i niweluje wpływ pamięci na wydajność.

No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska.

4 minuty temu, darkmartin napisał:

4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci

Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, SebastianFM napisał:

No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska.

Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością.

Póki co nie wiemy, czy ten cache L2 się naprawdę przyda w rasteryzacji czy nie. Jest inaczej "podpięty" pod GPU niż w kartach AMD. Możemy mieć nadzieje, ale możemy mieć też uzasadnione obawy. Moim zdaniem jest szansa, że 4080 12GB w wielu grach będzie dostawał po D od 3080ti a może i nie będzie wyprzedzał 3080. 

PS. 4080 16GB to żaden prawdziwy 4080. To jest 4070tka, a 4080 12GB to 4060tka. To, że Nvidia już oswoiła ludzi z kłamstwem jak przemalowywała segmenty kilka lat temu, nie znaczy, że mamy to łykać.

  • Like 1
  • Haha 1
  • Upvote 6

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomijając ze Nvidia robi z nas debili to ostatecznie liczy sie moc do ceny. A ta na ten moment wygląda średnio żeby nie napisać słabo. Przy takich cenach te karty powinny być od 6 do 8 razy szybsze od tego co jest aktualnie na rynku.

Linus Torvalds Linus GIF - Linus Torvalds Linus Nvidia - Discover & Share  GIFs

  • Like 2
  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, SebastianFM napisał:

No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska.

Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością.

A jest jakiś nie prawdziwy 4080 z klocków lego ?

W specyfikacji jest wyraźniwe napisane że 4080 12 GB ma mniej rdzeni niż 3080 10GB (7680 vs 8704 to jest 12% mniej jednostek).

Taktowanie jest około 50% wyższe.

Szyna pamięci jest 192 bit do 320 bit.

Schadery są takie same w 40X0 jak e 30X0

 

Różnica wydajności bez DLSS może być naprawdę bardzo mała.

4090 będzie oczywiście wywalona w kosmos ale tak musi być. Reszta to nędza.

 

A co do tego mitycznego cache - cache jest super jak się w niego trafi a jak się nie trafi to trzeba brać z pamięci po wąskiej szynie.

Edytowane przez darkmartin
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak czytam co tu wypisujecie to odechciewa mi się kupno 4xxx.

8000-1000 tysi za "mydło" to ja podziękuję. Gram w natywnej rozdzielczości. Chciałem realnego wzrostu wydajności a nie g.. DLSS 3

  • Like 2
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, darkmartin napisał:

A jest jakiś nie prawdziwy 4080 z klocków lego ?

W specyfikacji jest wyraźniwe napisane że 4080 12 GB 

Ad1 : https://ithardware.pl/aktualnosci/colorful_przygotowal_pc_z_geforcem_rtx_4090_na_ktory_stac_kazdego-23440.html

 

Ad2: na pudełku w sklepie chyba nie znajdziesz tego wyraźnie napisanego.

Godzinę temu, zawisztheblack napisał:

Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę.

Stopienie wtyczek to i tak lajtowy problem. Bo stopić może się cała chata. 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, darkmartin napisał:

Różnica wydajności bez DLSS może być naprawdę bardzo mała.

4090 będzie oczywiście wywalona w kosmos ale tak musi być. Reszta to nędza.

Właśnie taki obraz się rysować zaczyna, DLSS 3 ma uratować zbyt mały skok wydajności. Zapewne dlatego nie widzimy jego wsparcia dla starszych RTX'ow. Dlatego te karty tak żrą prądu, są wyżyłowane w kosmos do tego stopnia ze teraz to TY będziesz mógł wybierać NA WŁASNE RYZYKO czy chcesz wchodzić w świat 600W TDP.

Tutaj się zapowiada powtórka z Turinigiem tyle że jeszcze bardziej żałosna.

5 minut temu, Mistol napisał:

Jak czytam co tu wypisujecie to odechciewa mi się kupno 4xxx.

8000-1000 tysi za "mydło" to ja podziękuję. Gram w natywnej rozdzielczości. Chciałem realnego wzrostu wydajności a nie g.. DLSS 3

W punkt.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, Ronson napisał:

edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock.

Muszę przestać tu wchodzić bo mi głową imploduje od głupot.

14 minut temu, Ronson napisał:

Póki co nie wiemy, czy ten cache L2 się naprawdę przyda w rasteryzacji czy nie. 

Jak wyżej.

  • Thanks 1
  • Haha 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, darkmartin napisał:

Taktowanie jest około 50% wyższe.

Szyna pamięci jest 192 bit do 320 bit.

Schadery są takie same w 40X0 jak e 30X0

Różnica wydajności bez DLSS może być naprawdę bardzo mała.

Jak tylko pojawią się pierwsze wyniki w natywnej rozdzielczości to nie omieszkam ci przypomnieć, jak bardzo nietrafione były twoje wywody.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, zawisztheblack napisał:

Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę.

Dlaczego oni idą w konektor rozmiaru PCIE 8 pin z większą ilością cieńszych kabli i delikatnymi wtykami zamiast dać właśnie mniej pinów i grubsze kable, gdzie wszystko byłoby bardziej odporne? 

Przecież przy wysokich prądach nikt nie rozdziela ich na 30 wtyków z kablami 0.2mm tylko idą dwa kable konkretnej grubości. Moze chodzi o elastyczność, ale też nie przesadzajmy że linka 3mm jest super sztywna, a pewnie takie wystarczyłyby tylko 4 i z solidnymi wtykami zamiast tych mikro końcówek. 

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, MroczneWidmo napisał:

 

Źle to wygląda, dużo artefaktów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...