Skocz do zawartości

Rekomendowane odpowiedzi

Napisano (edytowane)
20 godzin temu, leven napisał:

GDDR6X i szyna 192 bit.

Świetny pomysł Nvidii :goryl:

 

HBM3 i 4096Bit to by Cie uszczęśliwiło? :E

TESLA A100 ma teraz 40GB RAM i eHBM2  5120bit, przepustowość 1600GB/s na Ampere, nowa TESLA na Ada ma mieć 80GB VRAM i HBM3. :E

Edytowane przez Stjepan666
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HMB ?No w końcu zeby było, Ile jeszcze lat

Byle nie w tym stylu 😆

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ciekawe czy przy nowym TITANie  48GB VRAM wystarczy do 8K. :E

@jurrek Radeon Pro ma już 32GB VRAM.

Edytowane przez Stjepan666

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedy Pan kurteczka będzie oficjalnie je z piekarnika wyjmował by ogłosić światu drogą nowinę? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gaz podrożał także nie tym razem.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślałem, że to elektryczny, zresztą prąd też w górę, więc lipa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tym razem pan kurteczka wyciagnie poprostu upieczone ciasto z piekarnika, po czym zacznie rozkrecac piekarnik i sie okaze ze elementem grzejnym byly dwie sztuki RTX 4090TI !!!

  • Like 1
  • Haha 6

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
30 minut temu, samsung70 napisał:

Kiedy Pan kurteczka będzie oficjalnie je z piekarnika wyjmował by ogłosić światu drogą nowinę? 

W ogóle nie ma co czekać na tą premierę. Nie czytałeś ostatnich odpowiedzi? Na podstawie samej tylko plotki o ilości jednostek najlepsi światowi specjaliści określili wydajność z dokładnością do jednego procenta. Poza tym, karty będą gorące, drogie, kiepskie, jedna nawet upośledzona, wszystkie ze zbyt niską przepustowością pamięci.

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, FynyxDuppelExpert napisał:

Mi to na fejka wyglada. Skok w przypadku 3070-4070 o 80W czyli o 35% wiecej mocy, diametralnie lepszy proces i tylko 25% skok wydajnosci? To chyba dali ten model do zrobienia studentom jako projekt zaliczeniowy.

Primo- pamięci GDDR6X mają znacznie gorszą sprawność energetyczną od GDDR6.
Dlatego np. RTX3070Ti ma TDP 290W, a zwykły RTX3070 TDP 220W.
Owszem- z tej różnicy można coś odjąć ze względu na nieco większą liczbę CUDA i bardziej agresywne zegary modelu Ti, ale i tak wychodzi że GDDR6X 19GBps wraz z układem zasilania biorą dodatkowe 50-60W w stosunku do GDDR6 14GBps.
No i RTX4070 ma mieć 12GB VRAM, a nie 8GB.

Secundo- w tych tabelkach jest pokazany procentowy przyrost liczby shader'ów, a nie przyrost wydajności.
Do tego dojdą usprawnienia w architekturze i dużo większy cache.
Obstawiam że można liczyć co najmniej na podobny progres jak w przypadku RX5700XT -> RX6700XT, czyli  +25% na jednostkę wykonawczą.

Tertio- to po prostu może być zwykły fake.
Np. w przypadku pary RTX4070-RTX3070 w tabelce chińczykom pomyliła się liczba shader'ów dla tego ostatniego.
7680/5888 = 1,30.
Dopiero 7680/6144 (liczba jednostek RTX3070Ti) = 1,25.
Dla pozostałych kart procentowy przyrost CUDA'ków się zgadza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
48 minut temu, SebastianFM napisał:

drogie

Co do tego to nie ma jakichkolwiek wątpliwości. Już w obecnej generacji TOP kosztował na starcie 1999$ lol. Tworzenie takich tworów jak GTX 1630 (sic!) też nie zwiastuje niskich cen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
46 minut temu, Paw79 napisał:

Primo- pamięci GDDR6X mają znacznie gorszą sprawność energetyczną od GDDR6.

Przecież to nie prawda ;) Nawet nie trzeba brać pod uwagę gier tylko kopanie i przeanalizować wydajność na wat 3090 vs 3070 do tego 3090 ma 16 kostek więcej ;)

Pobaw się 3070 podnosząc limit mocy do 290W na fabrycznej krzywej to zobaczysz jak wydajność na wat spadnie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Premiera ponoć w lipcu? Chodzi o 4070 i 4080.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
42 minuty temu, King Arthas napisał:

Premiera ponoć w lipcu? Chodzi o 4070 i 4080.

Kto tak mówi? Telepolis w tytule ma, że premiera na 100%, a w treści, że to tylko plotki? :E

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, PL1555 napisał:

Kto tak mówi? Telepolis w tytule ma, że premiera na 100%, a w treści, że to tylko plotki? :E

Znalazłem gdzieś w sieci, ale racja, same plotki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Premiera będzie wtedy, kiedy zieloni ją ogłoszą.

Póki co czekamy na przecieki informacyjne o kartach graficznych.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko nadal paluchem po budyniu pisane.
Ale jakie macie widy w szklanych kulach?
Jaki widzicie przyrost 4080 vs 3080?
Jakich cen się spodziewacie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Dla mnie spoko -  4090 na sierpień jak znalazł 🙃

4080 obstawiam będzie zbliżone do 3090Ti.

Niestety ceny będą zaporowe.

 

Edytowane przez zozolek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, zozolek napisał:

Dla mnie spoko -  4090 na sierpień jak znalazł 

Jak uda ale kupić w sierpniu to bedzie ok :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minut temu, dawidoxx napisał:

Jak uda ale kupić w sierpniu to bedzie ok :D

 

Na premierę wezmę kilka sztuk :D

Przecież nie będę wydawać kasy na swoją :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, zozolek napisał:

Na premierę wezmę kilka sztuk :D

Przecież nie będę wydawać kasy na swoją :E

Do kopania? Ja jebix juz myslalem ze ten interes kryptowalut upadl i se pysk rozbil na dobre.

Ja zlapalem COVID i nie wiem czy dozyje do premiery :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do wyprzedania zapasów 3000 ceny będą zaporowe (a zapasy na bank są gigantyczne), to akurat nic dziwnego, NVidia też nie chce zostawić producentów na lodzie z zapasem starych kart w cenie gruzu. W przeciwnym wypadku straciłaby zaufanie. 

Ja grzecznie czekam aż wydadzą karty i czerwoni i zieloni, przeanalizuje wydajność możliwości cenę i wybiorę model który będzie miał najlepszą kulturę pracy. Nie będę się rzucał jak szczerbaty na suchary, potem będę żałował. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Godzinę temu, zozolek napisał:

Na premierę wezmę kilka sztuk :D

Przecież nie będę wydawać kasy na swoją :E

Żebyś się nie zdziwił jak nie będziesz miał komu sprzedać i finalnie zamiast zarobic na karte to bedziesz w plecy. Wystarczy że  nVidia wprowadzi jakiś uber algorytm który zablokuje kopanie - Nawet jeśli bedzie to tymczasowe ograniczenie to mocno przystopuje zainteresowanie tym modelem u kopaczy.

Ja tam biorę 4090 ale tylko na wodzie.

 

Edytowane przez dawidoxx
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
32 minuty temu, dawidoxx napisał:

Żebyś się nie zdziwił jak nie będziesz miał komu sprzedać i finalnie zamiast zarobic na karte to bedziesz w plecy. Wystarczy że  nVidia wprowadzi jakiś uber algorytm który zablokuje kopanie - Nawet jeśli bedzie to tymczasowe ograniczenie to mocno przystopuje zainteresowanie tym modelem u kopaczy.

Ja tam biorę 4090 ale tylko na wodzie.

 

Nie martwię się o to :E

1 rzut będzie kluczowy - hype niesamowity, dostawy mizerne 🙃.

Swoje 3090 po roku kopania oddałem z zyskiem, wiec trudno mieć coś przeciw darmowym GPU.

 

 

 

 

Edytowane przez zozolek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Odpowiedzi

    • miałem 3050 i powiem szczerze że jakbym miał zapłacić za nią te 1400zł choćby, bo za tyle da się znaleźć jakieś 2wentylatory od asusa, to bym wolał za 800-900zł kupić 1660super/ti z długą gwarancją nawet teraz na forum wisi w dziale sprzedam z gwarancją 2lata za 870zł, pewnie przez forum by się dogadał - prowizja allegro 1400zł to cena nowego rx 6600,  kolejny temat że ktoś nie chce, bo miał złe doświadczenia... cóż
    • Nie no, fajne są takie okazje od Zbyszka z Siemianowic, ale ja bardziej pytałem o zakup z polskiego sklepu wszystkiego na jedną fakturę, dlatego zapytałem czy jest sens się pchać w rtx 2060 za 1400 względem rtx 3060 za około 2k.
    • W sobotę szwagier próbował mi załączyć TMP 2.0 na płycie głównej ale coś jest nie tak bo o ile tam robił to co trzeba to BOS nie pozwalał tego zapisać czy coś i cały czas wychodzi mi, że PC nie obsługuje TMP i nie spełnia wymagań minimalnych W11. Szwagier mówił, że  BIOS musi być w trybie setup mode a ja mam user i że prawdopodobnie trzeba zaktualizować BIOS.
    • za tyle to nowa w niezłej wersji https://www.olx.pl/d/oferta/karta-graficzna-zotac-rtx-3060-twin-edge-oc-CID99-IDP7Bf1.html sprzedawca pewny, wystawia też to samo na allegro używka nie więcej jak 1600, chyba że top gamingX itp
    • Jak sam widzisz to nie jest płyta do oc, przede wszystkim ma bardzo słabą sekcję zasilania cpu. Ja bym tak zostawił jak jest, wydasz siano a jakiegoś wyniku typu 3600 IMO i tak na niej nie zrobisz. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...