Skocz do zawartości

Rekomendowane odpowiedzi

Teraz, bleidd napisał:

4090 Ti

Wyżej pokazałem, że pełny rdzeń idzie do data center, niepełne idą do 4090 i innych.Wątpię że do gier puszczą coś na pełnym ad102

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Wu70 napisał:

Fatalna premiera, wstyd, żenada. Tak popularny segment z symbolicznym albo i bez wzrostu wydajności? Jeden z ważniejszych segmentów dla twórców gier w zasadzie zatrzymał się w rozwoju, fatalna wiadomość.

 

sławna okładka Polska - Ekwador

Poprawiłem;).

39NF7Mu.jpg

  • Haha 5
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, wrobel_krk napisał:

https://www.cdw.com/product/nvidia-l40-gpu-computing-processor-l40-48-gb/7307108

Jak mogą sprzedawać karty za 8k$ do data center to na takich 4090 zarabiają juz na waciki

Prawie pełny rdzeń ad102:
https://www.techpowerup.com/gpu-specs/l40.c3959

Tylko, że nie ma ograniczonej ilości chipów. NV może ich sobie natrzaskać więcej i sprzedać 4090.

Tak samo jak producenci procesorów potrafili sprzedawać wykastrowany sztucznie proc o połowę taniej i to nawet chyba Intel w jakimś momencie przemalowywał szybsze modele na tańsze. Nie psuli sobie rynku, ale zarabiali tam gdzie można to było sprzedać. Widać uznali, że przemalowując/sztucznie blokując lepszego proca i sprzedając ich w ten sposób więcej tam, gdzie jest popyt, zarobią więcej.

Oczywiście boom na datacentre i AI może faktycznie być prawdziwym argumentem, ale jak znam Nvidię to napompują ten argument o 1000% zanim go użyją. Tak samo jak ściemniali, że niedobory. Potem niedobory przestały istnieć a oni nigdy nie obniżyli cen, które były przecież wysokie bo niedobory.
Także do tych ostatnich newsów o tym, że Nvidia nie nadąża z produkcją dla datacentre i AI, to bym podchodził ostrożnie. Bardzo ostrożnie.

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja to czekam kiedy zaczną mówić, że w tej cenie ta czy tamta karta jest świetna do grania w chmurze :szczerbaty:

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 minut temu, sideband napisał:

2080ti w niektórych tytułach bez RT bije 1.8x 1080ti ;)

Pascal się mocno zestarzał ;) Także to nie jest taka dobra generacja/architektura.

Trochę inaczej pamiętam RTX 2080 Ti ale zapewne jakieś gry się znajda co odskoczą...

ghost-recon-wildlands_1920-1080.png

ghost-recon-wildlands_2560-1440.png

ghost-recon-wildlands_3840-2160.png

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DL2 ~1.75x , Doom Eternal ~1.7x, Control ~1.8x, CP2077 ~1.7x, Guardians of the Galaxy ~1.6x, Bright Memory ~1.6x, Quantum Break ~1.7x

Dużo gier buja się na poziomie ~1.5x.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A skok miedzy 980 Ti a 1080 Ti jak wyglądał ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
53 minuty temu, Ronson napisał:

Tylko, że nie ma ograniczonej ilości chipów. NV może ich sobie natrzaskać więcej i sprzedać 4090.

Tak samo jak producenci procesorów potrafili sprzedawać wykastrowany sztucznie proc o połowę taniej i to nawet chyba Intel w jakimś momencie przemalowywał szybsze modele na tańsze. Nie psuli sobie rynku, ale zarabiali tam gdzie można to było sprzedać. Widać uznali, że przemalowując/sztucznie blokując lepszego proca i sprzedając ich w ten sposób więcej tam, gdzie jest popyt, zarobią więcej.

Oczywiście boom na datacentre i AI może faktycznie być prawdziwym argumentem, ale jak znam Nvidię to napompują ten argument o 1000% zanim go użyją. Tak samo jak ściemniali, że niedobory. Potem niedobory przestały istnieć a oni nigdy nie obniżyli cen, które były przecież wysokie bo niedobory.
Także do tych ostatnich newsów o tym, że Nvidia nie nadąża z produkcją dla datacentre i AI, to bym podchodził ostrożnie. Bardzo ostrożnie.

No ja mam takiego oscalpowanego 9700k bez HT xD gole 8 rdzeni... Ale byl tanszy wtedy sporo od i9 9900k.. Pelnoprawnego... 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydajność 7600 na poziomie 3060 średnio w FHD. 4060 nie będzie zagrożony jeśli będzie miał delikatnie większa wydajność od 3060. 
Dodatkowo AMD ma 175W TDP, 4060 zejdzie do 100W. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

pewnie szybko spadną ceny poniżej 2k jak będzie to coś zalegać znjlaZC.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
3 minuty temu, Cwieku napisał:

pewnie szybko spadną ceny poniżej 2k jak będzie to coś zalegać znjlaZC.png

Tak szybko jak 3060Ti? :E Które tez zalegają? 
NV nie opuści ceny dopóki nie sprzeda do końca 3060ti który ma dokładnie te samą wydajność. A ze polityka Nv utrzymuje się ze płaci się za wydajność no to szans zero. 

 

NV to nie AMD, maja 80% rynku. 
 

Dosc powiedzieć ze 4070 miało bardzo małe obniżki. Ale tylko w przypadku bardzo słabego modelu. 
 

Edytowane przez TheMr.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
33 minuty temu, TheMr. napisał:

NV to nie AMD, maja 80% rynku. 

Ostatni ranking mówił o 88 %, najnowszego jeszcze chyba nie było 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Całkiem adekwatnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

A na GTX1630 powinno być 100 kup. 100x:kupa: :E Ta karta warta max 300zł, kosztuje około 800 zł w sklepach. :boink:

Edytowane przez Stjepan666
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Chodź 4090 to dla mnie karta fajniejsza/ciekawsza niż 2080ti czy 3080 i jakby mnie było stać, to bym ją kupił, to jednak nie rozumiem pozytywnej emoty obok tego modelu.
To jest następca GTXa 780 czy 1080Ti. Za cenę bym jej dał 😐 conajwyżej. 

Ale sam pomysł na tweeta zarąbisty :lol2:

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, kadajo napisał:

A skok miedzy 980 Ti a 1080 Ti jak wyglądał ?

Średnio 1.8x.

Max do 2x.

28nm vs 16nm ;)

Pascal vs Turing na tym samym procesie.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Cwieku napisał:

pewnie szybko spadną ceny poniżej 2k jak będzie to coś zalegać

mówisz i masz ;)

 

xZxPBd0.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli zamierza się grać w gry z rodzielczością 1920x1080@60Hz to istnieją jakieś minusy wynikające z tej szyny 128bitowej? Może być tak, że jakieś gry będą miały ścinki na 4060Ti, a na 3060Ti ich nie będzie? Mówiąc prościej - czy w full hd ta szyna 128bit ma znaczenie?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na PCI 4.0 - nie
Na PCI 3.0 tak


Ładnie sobie AMD i NV strzelają w kolana. Ja to piszę z kompa z PCI-E 3.0
dla mnie 4060ti wypadnie znacznie gorzej niż 3060Ti. 
:balon:

  • Thanks 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Ronson napisał:

Na PCI 4.0 - nie
Na PCI 3.0 tak

A ta zależność dotyczy też kart z serii RTX 30xx czy tylko 40xx dostaje po dupie na PCIE 3.0?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, Ronson napisał:

dla mnie 4060ti wypadnie znacznie gorzej niż 3060Ti

Nie wypadnie.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi o złącze. 4060ti ma PCI-E 8x, czyli tak jakby pół slotu.

I nie robi to żadnej różnicy, bo połowa 4.0 to tyle samo co pełna 3.0 na złączu 16x.
Niestety jeśli wstawisz kartę 4.0 ze złączem 8x w starocia z PCI-E 3.0 to uzyskasz przepustowość równą pełnej PCI-E 2.0 a to już jest problem.

Podobnie będzie w przyszłości. Kupisz kartę nie potrzebującą 5.0 ale dostaniesz 6.0 na złączu 4x i na płytach z 4.0 będzie kaplica, choć spokojnie karta mogła być na złączu o dwie generacje niższym.
Super! Tak fajnie i prokonsumencko. ;)

Tutaj patrz w przyszłości, żeby się nie nadziać:
https://www.techpowerup.com/gpu-specs/

  • Like 1
  • Thanks 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Tematy

  • Odpowiedzi

    • Nie wytrzymam - musze skomentowac   @Klakier1984 Parafrazaujac Pania Dulska - fajne tu robisz iluzje, takie na pozor wysublimowane   A gdybys zajrzal do slownika to bys wiedzial, ze poprawny oznacza wolny od bledow i z nowoczesnoscia nie ma to nic wspolnego  
    • Serio? Też tak myślałem.    
    • "Przechwycony przez rosyjską obronę przeciwlotniczą pocisk Storm Shadow uderza w siedzibę dowództwa Floty Czarnomorskiej". Piękny widok. Tak dla przypomnienia - SS uderza dwuetapowo, najpierw głowica penetrująca robi wyrwę w betonie, w którą w głąb wlatuje głowica główna i robi sieczkę z wnętrza. Także zewnętrzne uszkodzenia budynku mogą się wydawać stosunkowo niewielkie, ale w środku nic nie zostało.
    • Mocno jestem uparty na intela to co przezylem z moim ryzenem 5 2600 i ramem pod niego to tragedia do dzisiaj nie moge skonfigurowac swojego ramu tak aby ten procesor byl stabilny i sztywny mam takie input lagi w grach ze jestem strasznie zawiedziony 
    • 5 lat. Tylko to jest całkiem inaczej liczone: oprócz składek liczy się też punkty za każdy rok. Uśredniając, po 5 latach pracy, zakładając że zarabia się średnią krajową tj. 43k EUR, to dostanie się jakieś 180EUR brutto - o ile przechodzi się bezpośrednio po tych 5 latach na emeryturę. Ogólnie system zdrowo porąbany i praktycznie każdy z łbem na karku odkłada sobie dodatkowe składki. Teraz sobie coś wymyślili (jest taki pomysł), że wiek emerytalny będzie liczony na podstawie średniego wieku życia. I np. jeśli średnia wieku życia zwiększy się o 1 rok, to 2/3 z tego roku będzie dodawane do okresu pracy. Czyli jak medycyna się rozwinie, że będzie dłużej trzymać ledwo zipiących dziadków na tym świecie, to młodsze dziadki będą jeb*ć do 70-tki, albo i lepiej... Ja, dlatego wyniosłem się za wczasu - w Polsce przy moim typie charakteru zapewne miałbym już depresję. Nie cierpię kombinatorstwa, nie potrafię kłamać ludziom w twarz. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...