Skocz do zawartości

Rekomendowane odpowiedzi

1 minutę temu, darkmartin napisał:

4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci

12 GB 4080 ma mniej rdzeni CUDA niż 10GB 3080 nie wspomnę nawet o przepustowości pamięci.

Gdzie nastąpiła rozbudowa w tensorach 639 do 272.
widać od razu, że karta jest skonstruowana przede wszystkim pod upscaling DLSS

Wszystko wskazuje na to, że niższe modele będą również mieć mniej rdzeni CUDA niż w serii 30X0

Czyli jak ktoś nie używa tego syfu DLSS to RTX 3xxx jest szybszy od RTX 4xxx? 🤣

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

LoL  a ja ciagle marze zeby zagrac w CP77 max ultra super duper RT na opor w 60 fps ale NATIVE!!!!!

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

Tylko to zawsze był bonus, a nie główny powód. Nowe GPU kupuje się dla nowych/przyszłych gier, a nie aktualnych.
I to się robi trochę śmieszne, kupujesz GPU które fajnie sobie radzi z grami które już są a te nowe jak wychodzą nagle potrzebują sztuczek bo już GPU sobie nie radzi i cyk znowu musisz kupić nowe GPU. Jak ten proces trwał 3-4 lata to było spoko, ale jak on teraz ma trwać rok góra dwa, przy kartach za ponad 7 tys. złotych... PC robi się kompletnie nieopłacalną maszynka do grania, ale tak naprawdę nieopłacalną. Tutaj naprawdę konsola zaczyna świecić jak złoto.

Tak, bo jak się przesiadasz z PC na konsolę to automatycznie ci się coś przestawia w mózgu, że przestajesz potrzebować natywnego 4K i ustawień Ultra czy Psycho RT. Jak do tej pory DLSS kłuło w oczy to nagle dynamiczne skalowanie jest w porządku a niektórzy to nawet korzystają z upłynniacza w telewizorze, który działa 100 razy gorzej niż DLSS 3.

  • Haha 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Godzinę temu, SebastianFM napisał:

Opowiadasz bzdury.

Po pierwsze w Turing i Ampere przepustowość pamięci jest w większości przypadków na wyrost. Można to prosto sprawdzić, zmieniając częstotliwość pamięci np. o 20%. 

Najlepszym przykładem jest właśnie RX 6900 XT, który ma szynę 256 bit zamiast 384 bit i prawie o połowę mniejszą przepustowość pamięci niż RTX 3090. Różnica w wydajności w grach wynosi średnio 10% i nie ważne czy w 1080p czy 4K.

Nie, nie można tego tak sprawdzić. Wiesz jak są dostosowywane inne parametry przy tej zmienie? Nie wiesz.

 Tak jak idioci prawie 20 lat temu twierdzili, że podnoszenie FSB w Athlonach nie ma znaczenia, bo z 133 na 166MHz widać różnicę, a z 166 na 200 i 266 nie ma jej wcale (liczby są błędne w moim przykładzie, bo słabo to już pamiętam). A czemu? Ano kontroler pamięci sobie dostosowywał parametry. Tak samo jak Ivy Bridge na pamięciach 2400 osiągał to samo co Sadny na 2133. A Bulldozer miewał te same wyniki na 4GHz co na 3.2GHz. 
Także takie "sprawdzanie" to o kant D potłuc.
Do tego jeszcze dochdzi co i jak sprawdzasz. CPU bottleneck, shadery vs. czysta wydajność, a dalej wydajność w grach 60fps vs. 180fps. Albo w VR. Wydajność średnia a wydajność 0,1% low (to jest istotniejsze niż AVG, a nawet szanowani scepe skupiają się na AVG bardziej, podczas gdy różnica w AVG o 30% może nie dać nic, a spadek w AVG o 0,5% może oznaczać aż 10% spadku w 0,1% lows)

A 6900XT nie jest najlepszym, a najgorszym przykładem, bo ta karta ma cache, którym sobie pomaga i niweluje wpływ pamięci na wydajność.

Na sam koniec jeszcze jest kwestia tego, że sama przepustowość może zawierać w sobie dwa parametry. Realną przepustowość i czasy dostępu. A zapchanie przepustowości może wpływać na czas dostępu. Zmiana szyny i zegarów oraz timingów może wpływać.  Moim zdaniem nie tylko nie masz tego jak łatwo sprawdzic, ale w ogóle nie masz jak sprawdzić, chyba że jesteś inżynierem od projektowania GPU i masz odpowiednie narzędzia do tego.

edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock.

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Kyle_PL napisał:

Czyli jak ktoś nie używa tego syfu DLSS to RTX 3xxx jest szybszy od RTX 4xxx? 🤣

4090 będzie zawsze szybsza ale dla niższych modeli możesz się zdziwić.

40X0 może nie być szybsze bez DLSS.

Pamiętaj, że magazyny 30X0 są pełne.

40X0 będzie moim zdaniem promowane do grania w 4K z DLSS

  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, SebastianFM napisał:

Tak, bo jak się przesiadasz z PC na konsolę to automatycznie ci się coś przestawia w mózgu, że przestajesz potrzebować natywnego 4K i ustawień Ultra czy Psycho RT. Jak do tej pory DLSS kłuło w oczy to nagle dynamiczne skalowanie jest w porządku a niektórzy to nawet korzystają z upłynniacza w telewizorze, który działa 100 razy gorzej niż DLSS 3.

No i to jest zabawne w tym co piszesz. NA PC już tez nie masz natywnego 4k i ustawień Ultra bo każą ci za nie płacić jakieś absurdalne sumy, a i tak, nie możesz grac w natywnej rozdzielczości bo potrzebujesz DLSS 😂
No chyba, że w 5-10-letnie gry, lol :E

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Ronson napisał:

A 6900XT nie jest najlepszym, a najgorszym przykładem, bo ta karta ma cache, którym sobie pomaga i niweluje wpływ pamięci na wydajność.

No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska.

4 minuty temu, darkmartin napisał:

4080 ma mniej rdzeni cuda w stosunku do 3080 i mniejsza przepustowość pamięci

Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, SebastianFM napisał:

No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska.

Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością.

Póki co nie wiemy, czy ten cache L2 się naprawdę przyda w rasteryzacji czy nie. Jest inaczej "podpięty" pod GPU niż w kartach AMD. Możemy mieć nadzieje, ale możemy mieć też uzasadnione obawy. Moim zdaniem jest szansa, że 4080 12GB w wielu grach będzie dostawał po D od 3080ti a może i nie będzie wyprzedzał 3080. 

PS. 4080 16GB to żaden prawdziwy 4080. To jest 4070tka, a 4080 12GB to 4060tka. To, że Nvidia już oswoiła ludzi z kłamstwem jak przemalowywała segmenty kilka lat temu, nie znaczy, że mamy to łykać.

  • Like 1
  • Haha 1
  • Upvote 6

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomijając ze Nvidia robi z nas debili to ostatecznie liczy sie moc do ceny. A ta na ten moment wygląda średnio żeby nie napisać słabo. Przy takich cenach te karty powinny być od 6 do 8 razy szybsze od tego co jest aktualnie na rynku.

Linus Torvalds Linus GIF - Linus Torvalds Linus Nvidia - Discover & Share  GIFs

  • Like 2
  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
12 minut temu, SebastianFM napisał:

No właśnie. Ada też ma duży cache więc przestańcie płakać, że przepustowość pamięci jest za niska czy szyna za wąska.

Tak? Prawdziwy RTX 4080 ma więcej jednostek, które dodatkowo pracują z prawie o 50% wyższą częstotliwością.

A jest jakiś nie prawdziwy 4080 z klocków lego ?

W specyfikacji jest wyraźniwe napisane że 4080 12 GB ma mniej rdzeni niż 3080 10GB (7680 vs 8704 to jest 12% mniej jednostek).

Taktowanie jest około 50% wyższe.

Szyna pamięci jest 192 bit do 320 bit.

Schadery są takie same w 40X0 jak e 30X0

 

Różnica wydajności bez DLSS może być naprawdę bardzo mała.

4090 będzie oczywiście wywalona w kosmos ale tak musi być. Reszta to nędza.

 

A co do tego mitycznego cache - cache jest super jak się w niego trafi a jak się nie trafi to trzeba brać z pamięci po wąskiej szynie.

Edytowane przez darkmartin
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak czytam co tu wypisujecie to odechciewa mi się kupno 4xxx.

8000-1000 tysi za "mydło" to ja podziękuję. Gram w natywnej rozdzielczości. Chciałem realnego wzrostu wydajności a nie g.. DLSS 3

  • Like 2
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, darkmartin napisał:

A jest jakiś nie prawdziwy 4080 z klocków lego ?

W specyfikacji jest wyraźniwe napisane że 4080 12 GB 

Ad1 : https://ithardware.pl/aktualnosci/colorful_przygotowal_pc_z_geforcem_rtx_4090_na_ktory_stac_kazdego-23440.html

 

Ad2: na pudełku w sklepie chyba nie znajdziesz tego wyraźnie napisanego.

Godzinę temu, zawisztheblack napisał:

Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę.

Stopienie wtyczek to i tak lajtowy problem. Bo stopić może się cała chata. 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, darkmartin napisał:

Różnica wydajności bez DLSS może być naprawdę bardzo mała.

4090 będzie oczywiście wywalona w kosmos ale tak musi być. Reszta to nędza.

Właśnie taki obraz się rysować zaczyna, DLSS 3 ma uratować zbyt mały skok wydajności. Zapewne dlatego nie widzimy jego wsparcia dla starszych RTX'ow. Dlatego te karty tak żrą prądu, są wyżyłowane w kosmos do tego stopnia ze teraz to TY będziesz mógł wybierać NA WŁASNE RYZYKO czy chcesz wchodzić w świat 600W TDP.

Tutaj się zapowiada powtórka z Turinigiem tyle że jeszcze bardziej żałosna.

5 minut temu, Mistol napisał:

Jak czytam co tu wypisujecie to odechciewa mi się kupno 4xxx.

8000-1000 tysi za "mydło" to ja podziękuję. Gram w natywnej rozdzielczości. Chciałem realnego wzrostu wydajności a nie g.. DLSS 3

W punkt.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, Ronson napisał:

edit: a jeszcze mamy mechanizmy automatycznego dostosowywania się w GDDR6X. Polecam przyjrzeć się testom OC kart 3090, gdzie w kilku grach masz +5-7%, a w kilku masz... spadek o 15% względem stock.

Muszę przestać tu wchodzić bo mi głową imploduje od głupot.

14 minut temu, Ronson napisał:

Póki co nie wiemy, czy ten cache L2 się naprawdę przyda w rasteryzacji czy nie. 

Jak wyżej.

  • Thanks 1
  • Haha 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, darkmartin napisał:

Taktowanie jest około 50% wyższe.

Szyna pamięci jest 192 bit do 320 bit.

Schadery są takie same w 40X0 jak e 30X0

Różnica wydajności bez DLSS może być naprawdę bardzo mała.

Jak tylko pojawią się pierwsze wyniki w natywnej rozdzielczości to nie omieszkam ci przypomnieć, jak bardzo nietrafione były twoje wywody.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, zawisztheblack napisał:

Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę.

Dlaczego oni idą w konektor rozmiaru PCIE 8 pin z większą ilością cieńszych kabli i delikatnymi wtykami zamiast dać właśnie mniej pinów i grubsze kable, gdzie wszystko byłoby bardziej odporne? 

Przecież przy wysokich prądach nikt nie rozdziela ich na 30 wtyków z kablami 0.2mm tylko idą dwa kable konkretnej grubości. Moze chodzi o elastyczność, ale też nie przesadzajmy że linka 3mm jest super sztywna, a pewnie takie wystarczyłyby tylko 4 i z solidnymi wtykami zamiast tych mikro końcówek. 

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, MroczneWidmo napisał:

 

Źle to wygląda, dużo artefaktów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Kynareth napisał:

Źle to wygląda, dużo artefaktów.

pewnie tez finalnie to nie przeszlo, ale z drugiej strony to bylo 12 lat temu. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
10 minut temu, sideband napisał:

7790zł kursem Google 

Dostawa przez pośrednika i wychodzi załóżmy nawet te 8k 

I wcale nie ma takiej tragedii 

Chyba ze coś mi umyka :boink:

Edytowane przez ArgusSamuaro
  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
13 minut temu, sideband napisał:

Jak narazie po cenie MSRP :)

@ArgusSamuaro trzeba VAT jeszcze doliczyć i myto w PL to wyjdzie pewnie te 10K z górką mniejsza lub większą.

Edytowane przez Fenrir_14

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
3 minuty temu, ArgusSamuaro napisał:

7790zł kursem Google 

Dostawa przez pośrednika i wychodzi załóżmy nawet te 8k 

I wcale nie ma takiej tragedii 

Chyba ze coś mi umyka :boink:

może VAT i cło? 

Edytowane przez Ronin69
  • Haha 3
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, MroczneWidmo napisał:

pewnie tez finalnie to nie przeszlo, ale z drugiej strony to bylo 12 lat temu. 

W pierwszej chwili tez tak sobie myslalem ale interpolacja w Video a konkretnie w TV jest znana już z lat 90, jej najbardziej wtedy znana wersja była w TV Philipsa (Motion Flow albo plus nie pamiętam jak się to teraz nazywało, trzeba by pokopać trochę w necie), a potem stała się częścią Pixel Plusa który żeby było śmiesznie robi dokładnie to samo co DLSS 3, upscaluje do wyższej rozdziałki i upłynnia obraz. Ale do czego zmierzam. Mamy rok 2022, znacznie szybsze procesory itd itd itd. a TV nadal nie potrafią idealnie (bez artefaktów) interpolować Video w żadnej rozdzielczości. Zapytajcie każdego speca od TV to wam powie żeby to wyłączać. Minęło tyle lat a nadal nie ma sposobu żeby to dobrze ogarnąć. I coś czuje ze DLSS 3 będzie ta sama bajka, ale w sumie chciałbym się mylic bo jeśli Nv faktycznie to ogarnęła i działa to perfect albo przynajmniej tak ze nie widać tych artefaktów podczas normalnej rozgrywki to to byłby niezły przełom w upłynnieniu grafiki real time bez obciążania potoku renderingu, szczególnie tam, gdzie procesor albo sama ułomność silnika gry dusi wszytko (aka Microsoft Flight Symulator). Tak że jestem sceptyczny ale ciekawy tego co oni tam probuja nam wcisnąć. Testy będą ciekawsze od samej premiery, to na pewno.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...