Skocz do zawartości

Rekomendowane odpowiedzi

Wg mnie wszystkie trzy, już obecne na rynku karty są wycenione patologicznie do stopnia podejrzenia o bycie eksperymentem społecznym. Do tego wręcz skłaniałbym się ku opinii, że mimo tych posranych cen ich opłacalność zwiększa się idąc w stronę 4090, nie 4070Ti. 4070 Ti byłaby fajną kartą do 1440p, a przy DLSS nawet do RT, ale już znajdą się gierki, które kasują tą wizję niedoborem VRAMu. 4080 jest kartą dziwną, bo dla osób, które wg mnie jeśli mogą sobie na nią pozwolić, zdecydowanie mogą i powinni zaszaleć z 4090. Z drugiej strony 4080 tym bardziej zyskuje, im bardziej procent różnicy ceny pomiędzy nią a 4090 rośnie względem procentu różnicy wydajności. 16GB to też tak trochę słabo przy tej wydajności i cenie, ale na razie chyba wszędzie starczy, więc się czepiam. 4090 to połączenie generacyjnej bomby wydajności z ceną, które jest już na pewno eksperymentem społecznym. Śmiem podejrzewać, że w temacie czystej rasteryzacji i mimo tej ceny będzie wspominana jako lepszy deal niż nawet 1080Ti. Goniąc za Ultra, milardem klatek i RT będzie się starzeć źle i najbardziej boleśnie, ale przy rozsądnym podejściu optymalizacji ustawień graficznych na zasadzie "widać różnicę czy nie" może starzeć się nawet lepiej niż starzejące się zawsze imo fajnie ostatnie generacje flagowych Nvidii. Ceny są jakie są i po prostu pc gaming staje się coraz droższą pasją, z której kosztem nie ma co dyskutować, bo co człowiek, to opinia. Tu warto sobie odpowiedzieć na proste pytanie: Jak ważne są w twoim życiu te gierki? I na tej podstawie wyjdzie Ci, która karta i generalnie z jakiej półki sprzęt jest dla Ciebie :)

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, cyberpunk2020 napisał:

No widzisz ciebie nudzi gadanie o cenach a mnie nudzi gadanie ze tobie kredyt zdrozal jakby to mialo jakies znaczenie dla cen GPU.

To nie ma znaczenia dla gpu, to tylko pokazuje jak dzis jest wszystko jest  drozsze niz 2lata temu wiec dlaczego gpu do rozrywki mialoby byc tansze?? Bo Ty masz taki kaprys :szczerbaty:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ludzie o czym wy gadacie? Kto kupil 3080 w cenie MSRP? Teraz za 4K dostajesz wydajnosc 3080Ti /3090. Jest progres i to spory. Konkurencja w cenie 4.5k oferuje 20GB vram. Moim zdaniem jest lepiej jak było.

Edytowane przez Dżony Bi
  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, TheMr. napisał:

 

 

Główny składnik GPU. Już nie liczę cen mosfetów, tego że GPU potrzebuje już 12+ warstw PCB, kontrolerów (też do góry), a sam chip poleciał z ceną z 6k dolców do 12k+ bo proces technologiczny jest co raz droższy. Pracownicy NV na 99% jestem przekonany że zarabiają więcej niż dwa lata temu bo jest globalna inflacja :) 

Jak ktoś miał z ekonomią mało wspólnego, to śmiało może zajrzeć do marży NV i wyników, uwaga, nie zmieniła się :E:E W dalszym ciągu balansuje między 55-65%.

 

A no, i VRAM też poszedł do góry z ceną :E 

Skore ceny gpu mamy jakie mamy a marza nadal bez zmian to tylko pokazuje jak wzrosly koszta produkcji takiego gpu. No ale niektorzy to sie zatrzymali z cenami sprzed pandemi ;)  Oczywiscie cen nie mozna tlumaczyc bo sa oderwane od rzeczywistosci ale warto chociaz wiedziec skad sie taka cena wziela.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, cyberpunk2020 napisał:

No i teraz wszystko powoli leci w dol bo magiczne łancuchy dostaw sie juz odblokowalu co sam Jensen powiedzial w wywiadzie, a z VRAM to nie wiem jak jest bo Nvidia była chyba jedynym klientem na te GDDR6X, nie wiem czy Micronowi by sie oplacalo zwiekszac ceny bo by nie mieli tego komu sprzedac, poza tym:

3080 - 628 mm²

4070ti - 295 mm²

Dla mnie i tak wiekszosc co tu siedzi na tym forum to pozyteczni idioci na poziomie januszy z onetu (ban za 1..2..3) takze w sumie wiekszosc dziwnych postow mnie nie dziwi

6X jest trudne w produkcji i stabilizacji na tak wysokich taktowaniach żeby uzyskać wydajność, są droższe od zwykłych G6, dlatego AMD ich nie pakuje. Dodatkowo chłodzenie sekcji musi być lepsze a więc koszty :) 

Samsungowi NV płaciła za sprawny rdzeń, u TSMC płaci za całość :) Różnica, kolosalna. Mimo tego że 4xxx ma mniejszy rdzeń, to NV zarabia tylko na działających a musi defekty też policzyć w kosztach :)

 

Nie zdziwiłbym się gdyby NV płaciła dokładnie tyle samo Samsungowi za 628 mm2 jak za ~300 u TSMC :) Ba, możliwe że TSMC płaci więcej bo żeby dostać się do "kolejki" w TSMC to też trzeba zasłużyć :D 

 

3 minuty temu, Phoenix. napisał:

Skore ceny gpu mamy jakie mamy a marza nadal bez zmian to tylko pokazuje jak wzrosly koszta produkcji takiego gpu. No ale niektorzy to sie zatrzymali z cenami sprzed pandemi ;)  Oczywiscie cen nie mozna tlumaczyc bo sa oderwane od rzeczywistosci ale warto chociaz wiedziec skad sie taka cena wziela.

A to dopiero produkcja :E A co z całym łańcuchem? Transport, pośrednicy, magazyny itd. itp. U nas minimalna w tym roku skoczy o 30% bodajże. I teraz sklep u nas też musi zarobić na wyższe koszty, koszty przerzuca się na konsumenta :)  

Edytowane przez TheMr.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Dżony Bi napisał:

Ludzie o czym wy gadacie? Kto kupil 3080 w cenie MSRP?

Ja :E 829euro za Strixa 3080 na premierę. Takie było MSRP dla tego modelu. Jakoś ~3.7k pln wyszło po tamtym kursie euro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, Dżony Bi napisał:

Ludzie o czym wy gadacie? Kto kupil 3080 w cenie MSRP? 

Większość osób która holdowała zamówienia przez 2 lata. To były dobrze zainwestowane pieniądze. 

Edytowane przez TheMr.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, TheMr. napisał:

A to dopiero produkcja :E A co z całym łańcuchem? Transport, pośrednicy, magazyny itd. itp. U nas minimalna w tym roku skoczy o 30% bodajże. I teraz sklep u nas też musi zarobić na wyższe koszty, koszty przerzuca się na konsumenta :)  

Drogo to dopiero bedze w 3nm gpu :E

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem po co zmyślasz ;) 6X jest bezproblemowo w produkcji i tak samo tanie. Ale pcb pod 6X jest bardziej skomplikowane i nieco droższe. AMD nie stosuje 6X, ponieważ jest na wyłączność NV.

Nie wiem skąd Ty znasz warunki umów TSMC i NV ? Kiedyś płacili TSMC tylko za sprawne chipy jak jest teraz nie ma żadnych informacji na ten temat. TSMC wali grube ceny za wafle, ponieważ praktycznie są monopolistami tego rynku.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Phoenix. napisał:

Drogo to dopiero bedze w 3nm gpu :E

Dunno. Trudno przewidywać. 3nm nie będzie aż do 2025. 4xxx wychodzi bardzo powoli. Cały lineup zajmie rok. Może ceny materiałów się uspokoją, może rynek wyjdzie z "kryzysu". Jak ktoś ma na GPU i tak 2.5-3k zł to uważam, że przy obecnych czasach jedzenia mu raczej nie brakuje. Czy karta by kosztowała 499$ czy 599$. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, TheMr. napisał:

Większość osób która holdowała zamówienia przez 2 lata. To były dobrze zainwestowane pieniądze. 

Takie gadanie Wiem jak to wygladalo wtedy, a jak wyglada to teraz. Jest duzo lepiej i smiac mi sie chce z tych wszystkich placzkow. Najlepiej, zeby karta kosztowala polowe MSRP 3080 i byla 2 razy szybsza. No bo jak? Chcesz jeden z drugim progresu? To zrobcie progres ze swoim portfelem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 15.03.2023 o 18:37, DyndaS napisał:

Ewentualnie zagrywka marketingowa. Puścimy kontrolowany przeciek z jakąś absurdalną ceną. Ludzie będą jęczeć. Potem damy dalej wysoką oficjalną cenę, ale znacznie niższą niż ludzie myśleli. Wtedy odbiór jest typu... "wcale nie jest tak źle jak myśleliśmy, że miało być".

No a nie mówiłem ;)

https://www.purepc.pl/nvidia-geforce-rtx-4070-pojawily-sie-wiarygodne-informacje-na-temat-cen-bedzie-taniej-niz-przewidywano-ale-wciaz-drogo

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, sideband napisał:

Nie wiem po co zmyślasz ;) 6X jest bezproblemowo w produkcji i tak samo tanie. Ale pcb pod 6X jest bardziej skomplikowane i nieco droższe. AMD nie stosuje 6X, ponieważ jest na wyłączność NV.

Nie wiem skąd Ty znasz warunki umów TSMC i NV ? Kiedyś płacili TSMC tylko za sprawne chipy jak jest teraz nie ma żadnych informacji na ten temat. TSMC wali grube ceny za wafle, ponieważ praktycznie są monopolistami tego rynku.

https://www.tomshardware.com/news/micron-reveals-gddr6x-details-the-future-of-memory-or-a-proprietary-dram

"GDDR6X with PAM4: Harder to Build, but Cheaper than HBM2"

"Micron admits that GDDR6X chips are costlier to produce than previous-generation GDDR6 devices."

Nie wiem, może coś ulepszyli od tamtego czasu i mają Gen2 albo cuś. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, TheMr. napisał:

Dunno. Trudno przewidywać. 3nm nie będzie aż do 2025. 4xxx wychodzi bardzo powoli. Cały lineup zajmie rok. Może ceny materiałów się uspokoją, może rynek wyjdzie z "kryzysu". Jak ktoś ma na GPU i tak 2.5-3k zł to uważam, że przy obecnych czasach jedzenia mu raczej nie brakuje. Czy karta by kosztowała 499$ czy 599$. 

Nie będzie w 2025 tylko w 2024. A N3E wchodzi w połowie 2023 do masowej produkcji. Także do czasu premiery pewnie wleci jeszcze kolejna poprawiona generacja N3.

4 minuty temu, TheMr. napisał:

To są praktycznie te same pamięci polecam sprawdzić czym się różnią od GDDR6 bez X ;) To powstało ze współpracy z NV tego nie masz nawet w standardzie JEDEC ;)

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, lwampir napisał:

Stać mnie żeby kupić Ciebie całego razem z Twoją kartą.  

Za to kultury osobistej nie kupisz...

  • Upvote 11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Dżony Bi napisał:

 To zrobcie progres ze swoim portfelem.

Swoim czy kurteczki który robi z ludzi idiotów?? Kawałek bakielitu z plastikowymi wiatraczkami w cenie mobo, cpu i chłodzenia wodnego... Bo wydajność wieksza?? Na tym chyba polega postęp. Tyle, że przez kryptowalutowe szaleństwo największy "postęp" to ten cenowy.

Edytowane przez B@nita
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ayvtXrjFR5ujN4UjDP1JLg.png

Boże jaka bieda, 96 bit w 2023 roku :E.
Jeżeli to się potwierdzi, to według mnie kupowanie czegokolwiek poniżej 4070 w obecnej generacji nie ma żadnego racjonalnego uzasadnienia.

Na niebiesko tak powinno to wyglądać według mnie. Jedynie 4090 jest prawidłowo wypozycjonowana. 4070 Ti to tak naprawdę 4060 Ti, a 4080 to 4070. "Prawowita" 4080 powinna mieć 320 bitową szyne i 20 GB VRAM. Oczywiście pomijając kompletnie kwestie cen.

No śmierdzi strasznie jakimś refreshem w postaci Super jeszcze przed 50X0.

Ale to tylko moje  osobiste przemyślenia, nie bierzcie tego na poważnie :).

  • Like 3
  • Confused 1
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz chodzą plotki o RTX4070 za 600$, czyli u nas 3000zł. Stosunek cena/wydajność pewnie się utrzyma na poziomie Ti, czyli kiepsko, ale i tak będzie to opcja do 1080p-1440p.

Przy tych 96 bitach i 6GB to chyba trzeba będzie DLSS performance przy 1080p ustawiać w wielu grach. Karta do LoL-a i tyle. Prędzej używek bym szukał albo Intel Arca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 minut temu, parcu napisał:

 

Boże jaka bieda, 96 bit w 2023 roku :E.

Haha :D Wdziedziałem, że zejda poniżej 128... zastanawiałem się czy sypną hojnie 96, czy może jednak skromniej poleca na 64bit XD 

Edytowane przez Minciu
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NV liczy klatki wygenerowane przez DLSS jako pełnoprawne a twórcy gier liczą framerate po włączeniu DLSS i wnioskują że ich gry zoptymalizowane. :E

Jesteśmy podwójnie rżnięci.

  • Sad 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Klatki fejkowe a kasa prawdziwa, ładnie nas załatwił, wszystkich.

  • Sad 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, Minciu napisał:

Haha :D Wdziedziałem, że zejda poniżej 128... zastanawiałem się czy sypną hojnie 96, czy może jednak skromniej poleca na 64bit XD 

64bit szynę dostaniesz w RT(X?)4030 z 4GB vRAMu. Wszystko jeszcze przed nami. Oraz jeszcze PCIE4.0x4 na dokładkę 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tam uważam, że dyskusja na temat cen kart serii 4xxx jest jak najbardziej na temat w tym wątku, a że ktoś nie chce w niej uczestniczyć i widzieć, to cóż. Taki urok wątków na forum, że nigdy nie ustalisz zasad pasujących każdemu. Mnie dla przykładu kompletnie nie interesuje, jak ktoś wrzuca posty o rezultatach jego undervoltingu. Ktoś inny uznaje, że już lepiej o cenach niż o cewkach, a ja uważam oba tematy za ważne i ciekawe. Ile ludzi tyle opinii. Nie ma co się wkurzać, że musisz czasem przescrollować przez coś, co "powiewa". Szczególnie, że każdy temat się w końcu wyczerpuje i o cewkach tabelka ze statsami i opinie kilku osób - i temat wyczerpany. O cenach też się tu zaczyna dyskusja raczej przy premierach, a nie co tydzień wchodzi nowy model z serii 4xxx
Serio. Jakoś przeżyjecie ;)

Ktoś wyżej wstawił przeróbkę. Oto moja. Porównanie jak dana karta się nazywała. Porównanie ceny zostawiam już do indywidualnej opinii, bo każdy inaczej przeliczy inflację itp. 
Nazywałem patrząc na relację do pełnego chipu.
5b0bacd9c7e0331d89500729a4e02868.png

A argumenty o droższym koszcie produkcji są bezsensu.
Z całym szacunkiem, bo podwyżek bronią tu też osoby, które szanuję, ale:
 

 

 


- bo VRAM zdrożał. No nie. Bo 4060 dostaje 8GB. I to GDDR6 nie GDDR6X
- bo warstwy. Po pierwsze to karta z 128b nie będzie miała 12 warstw, a po drugie kilka warstw PCB to nie od razu koszt podbijający cenę o 500zł.
- jeśli wyprodukowanie chipu na przykład, strzał na ślepo (proszę się nie czepiać) kosztuje 500zł, a karta jest po 2000, bo wyprodukowanie go za 1000 podbije cenę do np. 2700 a nie do 4000, bo samo GPU nie jest całym kosztem karty. 
- marże NV nie zmieniły się. Bzdura kompletna. Ktoś widział rozpiskę? Nie? Ano właśnie. NV może sobie te marże tak wpisać jak nasz rząd wydatki. Kosztem GPU jest też projekt, marketing itp. Jak sobie wywalą np. 10 miliardów na napis "Radeony są ze słomy" na księżycu, to też powiesz, że no spoko, bo w papierach marża została? A czemu nie spojrzysz na wyniki? Jakimś cudem NV notowała kolejne, kolejne, i kolejne  rekordy zysków
- w ogóle wierzenie temu co mówi NV. No prosze Was bardzo, nie róbmy kabaretu. Ceny były wysokie bo niedobory. Ceny były wysokie bo "shortages". Ceny były wysokie bo pandemia. Ceny wysokie bo łódka w kanale stanęła w poprzek. Ceny wysokie, bo ci źli kopacze, a my nie umiemy nic z tym zrobić, a jak umiemy to "oops, pokonali nasze zabezpieczenia i kopią dalej". Ceny wysokie, bo nie ma gdzie produkować, bo takie TSMC obłożone. A teraz? Ceny za niskie macie! Dlatego wam sztucznie przyblokujemy karty, żeby zapasy magazynowe sprzedać w cenach jakby nadal złote żniwa trwały

No nie bądźmy niepoważni. Tak jak Karta 4080 z Noctuą nie musi kosztować 8500 zamiast 6500, bo te chłodzenie nie dodaje 2000zł do kosztu, tak samo karty NV (i AMD, bo oni bardzo chętnie kopiują każdy anty-konsumencki ruch NVidii) są wielokrotnie zawyżone i koniec. 

No i apropo tej inflacji. To nie jest tak, że USA, Chinach i Taiwanie przez ostatnie kilka lat płace skoczyły o 300%. To nie jakaś Turcja czy.. Polska.

Jest jeden argument, który by potencjalnie mógł mieć sens na pierwszy rzut oka. Że "no nie krytykuj, że takie kastraty i 64bit zamiast 192bit, bo dostajesz cache który trochę ten problem rekompensuje) 
Nie jest to dobry argument bo postęp w technologii pamięci szedł przez ostatnią dekadę o wiele wolniej niż to bywało kiedyś, dlatego dziś miewamy takie kwiatki jak karta 3050 sprzedwana w 2023 za cenę wyższą niż 1660super na premierę, a do tego w kilku miejscach wyraźnie z 1660s przegrywającą. Fajnie, że w końcu da się naprawić jeden z większych problemów tanich kart, ale tanie karty, żeby tworzyły zdrową sytuację na rynku, nie psującą perspektyw całej branży PC gamingu, muszą być... tanie. 
Mamy się cieszyć, że NV dała 20-30MB cache, dzięki czemu tańsza karta z mniejszą szyną radzi sobie lepiej, ale jednocześnie jest nadal dużo droższa niż jakby mogła być jakby ta szyna była o 50 czy 100% szersza?

Poza tym kto każe im tam pakować RT zjadające tranzystory i nabijające koszt? DLSSy czy nie, karta typu 4060ti i niżej to się do RT tak nadaje jak Xbox S do natywnego 4K. To samo z AI.
Jak dorzucą połowę chipu do obliczeń symulacji  fal dźwiękowych w grze, to też spoko, bo "ponieśli wysokie koszty produkcji chipu"?

Sytuacja na rynku kart do grania na PC jest chora,  nienormalna i tragiczna w skutkach dla przysłości tej branży. 
Jak przeliczyć to, że dostajemy np. 1/6 chipu zamiast 1/2 i dodać różnice w cenie to czasem może wyjść ponad 10x różnicy. 
Jakimś cudem się Nvidii opłacało jak odpowiednik dzisiejszej 4090 czyli 8800GT kosztował 1000zł na premierę. 

Inflacja i podwyższone koszty u TSMC nie tłumaczą kilkunasto krotnej różnicy. 

"ale masz DLLS3!"

Baboli DLSSa 3 w ruchu nie widać tylko pod warunkiem, że wyświetlacz i tak tego ruchu zaprezentować poprawnie nie potrafi. Na ekranie, który sobie z tym radzi, ta technologia jest wyraźnym i bolesnym kompromisem, na który np. ja w życiu się nie zgodzę, do tego jest okropny lag z v-sync, którego wymaga 99% z tych 0,1% monitorów i TV, które sobie potrafią z ruchem poradzić. 


----
edit: za krótki post wyszedł, to dodam ;)

Nawet biznesowo to nie ma już sensu. Ludzie mieli za dużo czasu wolnego w domu przez pracę zdalną i wiele osób w USA i innych krajach dostało kasę, którą mogli "przepić" to za te "covid stimulous check" kupowali karty po 2000$.

Ale teraz mamy kryzys. Atrakcyjność PC i tak jest z każdym kwartałem psuta bardziej i bardziej (blokowanie modowania gier w wielu przypadkach, chamskie i szkodliwe DRMy, stutter w większości gier na UE4 i 5, brak opcji wyłączania TAA bez psucia obrazu itd.)
To jest działanie tak krótkowzroczne jak strzelenie sobie w stopę bo na stopie swędzi bąbel po ukąszeniu komara.

NV i AMD nie dowalają tak chorych cen, bo "tak im biedakom strasznie ceny u TSMC podnieśli!" tylko dlatego, że oni nie mają zielonego pojecia o rynku.

Dla nich to, że się sprzedały karty high-end za 1500$ oznaczało, że każdy entuzjasta kupić te karty za 1500 zamiast za 800,.
A że mogłoby tych entuzjastów być 10x więcej niż ich durne szacunki to się nie dowiedzą nigdy. 
Najlepsza analogia to PSVR2 teraz. Sony kompletnie nie rozumie rynku. Myśli, że zainteresowani to ta sama grupa co casuale grający co sobotę w CoDa czy Fifę. 
Teraz będą wyciągać wnioski, że VR się nie przyjmuje, bo PSVR2 ma słaby start.
Tymczasem pewnie z połowa albo więcej potencjalnych nabywców nie kupiła, bo to gracze core. Oni w przeciwieństwie do casuali raczej się interesują tematem i widzą, że PSVR2 brakuje obecnie gier i pewnej przyszłości. 
Tym sposobem Sony może zmarnować potencjał na ogromną bazę graczy VR i sukces tego medium na najbliższe lata.

Ceny kart x10 względem cen z 2005-2015r (po odczarowaniu mylącego nazewnictwa) tak samo szkodzą rynkowi PC gaming jak durnota zarządu Sony w temacie PSVR2. 

Każdy powinien mieć świadomość, a nie wesoło kupować 4070 za 3200zł ciesząc się, że kupuje kartę może drogą, ale niezłą i starczającą na przyszłość. 
12GB to jak w w styczniu 2007 kupować 8800GTS 320MB.  Szybko będzie trzeba kombinować z teksturami na very low i cięciem detali.
 


 

Edytowane przez Ronson
  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, Ronson napisał:

Ja tam uważam, że dyskusja na temat cen kart serii 4xxx jest jak najbardziej na temat w tym wątku, a że ktoś nie chce w niej uczestniczyć i widzieć, to cóż. Taki urok wątków na forum, że nigdy nie ustalisz zasad pasujących każdemu. Mnie dla przykładu kompletnie nie interesuje, jak ktoś wrzuca posty o rezultatach jego undervoltingu. Ktoś inny uznaje, że już lepiej o cenach niż o cewkach, a ja uważam oba tematy za ważne i ciekawe. Ile ludzi tyle opinii. Nie ma co się wkurzać, że musisz czasem przescrollować przez coś, co "powiewa". Szczególnie, że każdy temat się w końcu wyczerpuje i o cewkach tabelka ze statsami i opinie kilku osób - i temat wyczerpany. O cenach też się tu zaczyna dyskusja raczej przy premierach, a nie co tydzień wchodzi nowy model z serii 4xxx
Serio. Jakoś przeżyjecie ;)

Ktoś wyżej wstawił przeróbkę. Oto moja. Porównanie jak dana karta się nazywała. Porównanie ceny zostawiam już do indywidualnej opinii, bo każdy inaczej przeliczy inflację itp. 
Nazywałem patrząc na relację do pełnego chipu.
5b0bacd9c7e0331d89500729a4e02868.png

A argumenty o droższym koszcie produkcji są bezsensu.
Z całym szacunkiem, bo podwyżek bronią tu też osoby, które szanuję, ale:
 

  Pokaż ukrytą zawartość

 


- bo VRAM zdrożał. No nie. Bo 4060 dostaje 8GB. I to GDDR6 nie GDDR6X
- bo warstwy. Po pierwsze to karta z 128b nie będzie miała 12 warstw, a po drugie kilka warstw PCB to nie od razu koszt podbijający cenę o 500zł.
- jeśli wyprodukowanie chipu na przykład, strzał na ślepo (proszę się nie czepiać) kosztuje 500zł, a karta jest po 2000, bo wyprodukowanie go za 1000 podbije cenę do np. 2700 a nie do 4000, bo samo GPU nie jest całym kosztem karty. 
- marże NV nie zmieniły się. Bzdura kompletna. Ktoś widział rozpiskę? Nie? Ano właśnie. NV może sobie te marże tak wpisać jak nasz rząd wydatki. Kosztem GPU jest też projekt, marketing itp. Jak sobie wywalą np. 10 miliardów na napis "Radeony są ze słomy" na księżycu, to też powiesz, że no spoko, bo w papierach marża została? A czemu nie spojrzysz na wyniki? Jakimś cudem NV notowała kolejne, kolejne, i kolejne  rekordy zysków
- w ogóle wierzenie temu co mówi NV. No prosze Was bardzo, nie róbmy kabaretu. Ceny były wysokie bo niedobory. Ceny były wysokie bo "shortages". Ceny były wysokie bo pandemia. Ceny wysokie bo łódka w kanale stanęła w poprzek. Ceny wysokie, bo ci źli kopacze, a my nie umiemy nic z tym zrobić, a jak umiemy to "oops, pokonali nasze zabezpieczenia i kopią dalej". Ceny wysokie, bo nie ma gdzie produkować, bo takie TSMC obłożone. A teraz? Ceny za niskie macie! Dlatego wam sztucznie przyblokujemy karty, żeby zapasy magazynowe sprzedać w cenach jakby nadal złote żniwa trwały

No nie bądźmy niepoważni. Tak jak Karta 4080 z Noctuą nie musi kosztować 8500 zamiast 6500, bo te chłodzenie nie dodaje 2000zł do kosztu, tak samo karty NV (i AMD, bo oni bardzo chętnie kopiują każdy anty-konsumencki ruch NVidii) są wielokrotnie zawyżone i koniec. 

No i apropo tej inflacji. To nie jest tak, że USA, Chinach i Taiwanie przez ostatnie kilka lat płace skoczyły o 300%. To nie jakaś Turcja czy.. Polska.

Jest jeden argument, który by potencjalnie mógł mieć sens na pierwszy rzut oka. Że "no nie krytykuj, że takie kastraty i 64bit zamiast 192bit, bo dostajesz cache który trochę ten problem rekompensuje) 
Nie jest to dobry argument bo postęp w technologii pamięci szedł przez ostatnią dekadę o wiele wolniej niż to bywało kiedyś, dlatego dziś miewamy takie kwiatki jak karta 3050 sprzedwana w 2023 za cenę wyższą niż 1660super na premierę, a do tego w kilku miejscach wyraźnie z 1660s przegrywającą. Fajnie, że w końcu da się naprawić jeden z większych problemów tanich kart, ale tanie karty, żeby tworzyły zdrową sytuację na rynku, nie psującą perspektyw całej branży PC gamingu, muszą być... tanie. 
Mamy się cieszyć, że NV dała 20-30MB cache, dzięki czemu tańsza karta z mniejszą szyną radzi sobie lepiej, ale jednocześnie jest nadal dużo droższa niż jakby mogła być jakby ta szyna była o 50 czy 100% szersza?

Poza tym kto każe im tam pakować RT zjadające tranzystory i nabijające koszt? DLSSy czy nie, karta typu 4060ti i niżej to się do RT tak nadaje jak Xbox S do natywnego 4K. To samo z AI.
Jak dorzucą połowę chipu do obliczeń symulacji  fal dźwiękowych w grze, to też spoko, bo "ponieśli wysokie koszty produkcji chipu"?

Sytuacja na rynku kart do grania na PC jest chora,  nienormalna i tragiczna w skutkach dla przysłości tej branży. 
Jak przeliczyć to, że dostajemy np. 1/6 chipu zamiast 1/2 i dodać różnice w cenie to czasem może wyjść ponad 10x różnicy. 
Jakimś cudem się Nvidii opłacało jak odpowiednik dzisiejszej 4090 czyli 8800GT kosztował 1000zł na premierę. 

Inflacja i podwyższone koszty u TSMC nie tłumaczą kilkunasto krotnej różnicy. 

"ale masz DLLS3!"

Baboli DLSSa 3 w ruchu nie widać tylko pod warunkiem, że wyświetlacz i tak tego ruchu zaprezentować poprawnie nie potrafi. Na ekranie, który sobie z tym radzi, ta technologia jest wyraźnym i bolesnym kompromisem, na który np. ja w życiu się nie zgodzę, do tego jest okropny lag z v-sync, którego wymaga 99% z tych 0,1% monitorów i TV, które sobie potrafią z ruchem poradzić. 


 

Żeby wgl dyskutować  o cenach to trzeba wiedzieć skąd się takie wzięły , marza nvidia jest niezmienna a ceny kart kosmiczne. Co to oznacza ? To ze cała produkcja poszła do góry skoro 3080 mając marze ok 55-60% mogło kosztowac 3500zl a dziś 4080 z ta sama marza kosztuje 2x tyle to trzeba sobie uświadomić jak mocno koszta poszły w górę. Większość tych płaczków nie ma o tym bladego pojęcia i stękają ze coś dziś powinno kosztować dużo mniej.  

Edytowane przez Phoenix.
  • Haha 1
  • Confused 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, cyberpunk2020 napisał:

PNY 4090 bo ta karta ma najbardziej obciete bebechy w historii obcinania bebechow

 

Na luzie ta sekcja wytrzyma 600W poza tym Inno3d ma słabszą sekcję i też nie ma problemu. To tylko kwestia utrzymania dobrej temperatury sekcji i będzie gitara.

 

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Tematy

  • Odpowiedzi

    • w pełni wyczerpując temat: Włączenie opcji TPM 2.0 Security w BIOSie na starszych laptopach z procesorami Intel 8. generacji i systemem Windows 10 64-bit może mieć wpływ na zabezpieczenia systemu, ale głównie w kontekście niektórych zaawansowanych funkcji bezpieczeństwa i funkcji uwierzytelniania. Oto kilka możliwych korzyści z włączenia TPM 2.0: - BitLocker i szyfrowanie danych: Włączenie TPM 2.0 może umożliwić skuteczniejsze korzystanie z funkcji szyfrowania danych, takich jak BitLocker. BitLocker wykorzystuje moduł TPM do przechowywania klucza szyfrowania, co może zwiększyć bezpieczeństwo danych na dysku. - Funkcje bezpieczeństwa systemu Windows: System Windows może korzystać z funkcji TPM do różnych zastosowań, takich jak uwierzytelnianie sprzętowe, uwierzytelnianie systemowe i uruchamianie zaufanej ścieżki (Trusted Platform Module). - Zwiększone bezpieczeństwo autoryzacji: Włączenie TPM może wpłynąć na zabezpieczenia autoryzacji na poziomie sprzętowym, co może zapobiegać niektórym atakom związanym z próbami przejęcia konta użytkownika. - Zarządzanie kluczami: TPM może być używany do generowania, przechowywania i zarządzania kluczami kryptograficznymi, co może być przydatne w przypadku aplikacji wymagających wysokiego poziomu bezpieczeństwa. Jednakże, jeśli użytkownik korzysta jedynie z zwykłego hasła w swoim profilu systemu Windows, to włączenie TPM 2.0 może nie mieć znaczącego bezpośredniego wpływu na zabezpieczenia jego systemu, ponieważ TPM jest bardziej przydatny w połączeniu z zaawansowanymi funkcjami uwierzytelniania i szyfrowania danych. W takim przypadku włączenie TPM może być bardziej korzystne, gdy użytkownik korzysta z funkcji takich jak BitLocker lub wymagane są zwiększone zabezpieczenia na poziomie sprzętowym.
    • Manipulując krzywą napięć i taktowania, możemy też jednocześnie wykonać OC. UV nie musi wiązać się z obniżeniem wydajności. Można uzyskać jedno i drugie zarazem np podnosząc max taktowanie i jednocześnie obniżając dla niego napięcie. Poza samym podniesieniem taktowania, jednoczesne obniżenie napięcia pozwala obniżyć nieco temp rdzenia co też pozwoli utrzymać dłużej wysokie takty. Mamy więc 3 zalety za jednym posunięciem. 
    • W poprzedniej części też nawet dużo zmian zajmowało parę kilobajtów. Całość to fixy w skryptach LUA. Największy Update w poprzedniej części chyba miał 1 MB z groszami. Bardzo dobre rozwiązanie niż pobieranie paru GB.
    • Ja już od lat lecę na jakiś kartach czy dac'ach żeby wzmocnienie było na słuchawki bo inaczej kroków w multi to prawie że nie słychać  w 3 ostatnich płytach miałem i mam alc 892 to jest dramat na słuchawkach, nie mając osobnej karty/daca podłączałem jakiś czas pod głośnik słuchawki aby robił za wzmacniacz  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...