Skocz do zawartości

Rekomendowane odpowiedzi

23 minuty temu, kadajo napisał:

 Nvidia rozdzielała karty "dla graczy" od kart dla profesjonalistów (Titan etc.). Teraz GPU profesjonalne kosztuje trylion a karty dla graczy stały się drogimi kartami dla graczy i GPU do obliczeń dla plebsu :E

Myślę, że winę ponoszą ci, którzy wmówili nam, że potrzebujemy wyświetlaczy 4k.

Jeszcze 3 lata temu wystarczało mi FullHD. Co prawda była to plazma, czyli najlepszy sprzęt do grania (kolory, szybkość reakcji) na którym wszystko wyglądało świetnie.

Dzisiaj, żeby zapewnić sobie takie same wrażenia na Oledzie 4k jak na tej starej plazmie, potrzebuję 7 razy większej mocy obliczeniowej GPU. A i tak nie widzę z fotela tych drobnych pikseli, bo wzrok mi siada.🥴

Edytowane przez tgolik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, galakty napisał:

No i super? Ludzie dzięki temu mogli się rozwijać, a nie tylko grać w głupie gierki.

Serio robisz widły z igły, to nie problem w CUDA tylko w chciwości korporacji. NV jest kolosem, bez konkurencji, mogą robić co chcą. Kiedyś zależało im na graczach, marce, dziś liczą się słupki w Excel.

To samo jest z grami. Nie liczy się fabuła, innowacja, tylko zarobek. Takie mamy czasy i dotyka to wszystkiego, a nie tylko GPU. Albo wsiadasz w pociąg, albo dajesz sobie spokój ;) 

W ogóle siedzenie codziennie na pclolu jest szkodliwe. Normalni ludzie grają sobie w gierki na RTX 2060 i mają w pompie problemy, które tutaj codziennie poruszamy XDDD

No pewnie ze super, dzięki temu dzis mamy super drogie karty :D 

Nie wiem jak ty, ale ja gram teraz w FH4 i siedzę na pclolu :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, kadajo napisał:

To daje do myślenia.

13% ale w teście w 8k wrażliwym na przepustowość pamięci.

No i z tymi pamięciami zawsze tak jest, że później mają lepsze możliwości niż jak projektowali na start 4090:)

34 minuty temu, kadajo napisał:

A mam jakiś wybór ? :E

Intel/Amd  kup czy tam konsole póki masz wybór:)
Jak się nie podobają cuda bajery albo można nie włączać, albo kupić od konkurencji, która jakimś cudem bez tych CUDA'ów się nie sprzedaje

 

23 minuty temu, galakty napisał:

W ogóle siedzenie codziennie na pclolu jest szkodliwe. Normalni ludzie grają sobie w gierki na RTX 2060 i mają w pompie problemy, które tutaj codziennie poruszamy XDDD

Zgoda. tu dalej panuje przekonanie, że gracze są jakąś mega ważna grupą. Że NVIDIA kocha graczy itd, a to korpo robi to co się najbardziej opłaca. Nasze szczęście że te Cuda do czegoś da się w grach wykorzystać:)

No generalnie kasa napędza rozwój, a że od dłuższego czasu większa kasa i tak była w data center, to rozwijane są bardziej w tą stronę karty,  przez AI to w ogóle karty do gier zejdą na 3 czy 4 miejsce w hierarchii.

Swoja droga nie znalazłem w którym roku dział gaming nvidia ostani raz był głównym źródłem przychodów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, kadajo napisał:

No pewnie ze super, dzięki temu dzis mamy super drogie karty :D 

Nie przez to... Jasne krypto szał zrobił swoje, ale potem ceny wróciły do normalnych. Niestety NV zauważyła że jest popyt i zaczeła odjeżdżać z cenami. AMD nie jest konkurencją i mamy co mamy. 

Naprawdę sądzisz że jakby teraz usunęli CUDA i możliwość pracy w programach/grafice to ceny by spadły znacząco? Litości ;) 

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A kto powiedział że mają z tego zrezygnować 🙂

Ja tylko punktuje że wrzucenie wszystkiego do jednego wora spowodowało że gracze muszę płacić fortunę za karty bo mogą one służyć do czegoś innego. 

Gdybyśmy mieli wyspecjalizowane układy do konkretnych rzeczy nie byłoby tego problemu.

Sytuacja w której się znaleźliśmy jest na rękę tylko jednym i to na pewno nie są gracze 😅

A co do kupowania czegoś innego niż NVIDIA, no można tylko że trzeba jednocześnie zrezygnować z jakości (konsole) albo wydajności w rt (AMD). RT które przypadkiem wprowadziła NVIDIA wiedząc że nawet jej karty będą kwiczeć z tym rozwiązaniem. No ale tutaj wiezdzaja na białym koniu dlss i fg. Że co? Działają tylko na rtx a fg tylko na tych najnowszych? Drobiazg, przecież jest wybór. 😋

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, kadajo napisał:

Ja tylko punktuje że wrzucenie wszystkiego do jednego wora spowodowało że gracze muszę płacić fortunę za karty bo mogą one służyć do czegoś innego. 

Tylko ze nie masz racji xD

GPU nie były przesadnie drogie, dopiero ostatnie lata takie są. Zresztą płyty czy CPU też zdrożały. AM5 jest drogie bo służy do wielu rzeczy, a nie tylko grania? Można na tym pracować, albo serwer postawić. To przez to jest takie drogie!!!!!

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karty są zdecydowanie najdroższe, zwróć uwagę z czym to się zbiegło 😉

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, kadajo napisał:

Gdybyśmy mieli wyspecjalizowane układy do konkretnych rzeczy nie byłoby tego problemu.

Wtedy byś płakał że są takie słabe w porównaniu do tych do AI:) Rozwój byłby jeszcze gorszy niż Intela w czasach 7-11gen

Zakładam oczywiście że jakoś drogi gpu i data center gpu by się rozeszły to kasa była w data center/ krytpo teraz jest w Ai.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podszedłem do tematu z drugiej strony.

6 lat temu za 2300 zł kupiłem GTX 1070 ti - idealną kartę do Full HD.

Jeśli ktoś do dzisiaj siedzi na 1080p (jak @caleb59 ) to za 2000 zł może sobie odświeżyć kompa  kupując RTX 4060 ti, który pozwoli grać w Cyberpunka w 110fps, z RT na ultra z wykorzystaniem DLSS i FG.

Na ceny GPU chyba najbardziej wpłynęły powierzchnie chipów, które urosły ze względu na wymogi rozdzielczości 1440p i 4k.

Edytowane przez tgolik
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
31 minut temu, kadajo napisał:

Gdybyśmy mieli wyspecjalizowane układy do konkretnych rzeczy nie byłoby tego problemu.

 

Ludzie liczyli na GPU dużo wcześniej zanim były zunifikowane shadery i CUDA. Przecież wszystko to obliczenia, tylko musisz włożyć pracę i napisać taki kod który zamiast liczyć kolor piksela to policzy jakas symulacje białka. Na starych GPU to było upierdliwe bo ich sposób programowania nie uwzględniał np instrukcji loop czy if. A CUDA tylko to ułatwiła, co nie znaczy że bez CUDA GPU by nie były używane do czegoś innego niż renderowania gier.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, tgolik napisał:

Jeśli ktoś do dzisiaj siedzi na 1080p (jak @caleb59) to za 2000 może sobie odświeżyć kompa  kupując RTX4090ti, który pozwoli grać w Cyberpunka w 110fps, z RT na ultra z wykorzystaniem DLSS i FG.

Do 1080p to nawet 4070 Ti będzie kozakiem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@galakty

Pomyliłem się, jakbyś mógł poprawić. Chodziło mi o RTX 4060 ti.

Edytowane przez tgolik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
24 minuty temu, cichy45 napisał:

Ludzie liczyli na GPU dużo wcześniej zanim były zunifikowane shadery i CUDA. Przecież wszystko to obliczenia, tylko musisz włożyć pracę i napisać taki kod który zamiast liczyć kolor piksela to policzy jakas symulacje białka. Na starych GPU to było upierdliwe bo ich sposób programowania nie uwzględniał np instrukcji loop czy if. A CUDA tylko to ułatwiła, co nie znaczy że bez CUDA GPU by nie były używane do czegoś innego niż renderowania gier.

Jasne, problem w tym że może być używana w takim stopniu że zaburza rynek. Kryptowaluty chyba to dobitnie pokazały. Teraz będzie AI I będziesz dalej płacił jak za zboże za ich karty nie dlatego że są wydajne w grach tylko dlatego że możesz na nich robić coś innego. Granie na nich to będzie tylko dodatek. Nvidia już nie robi kart do grania, tylko do obliczeń. Nie trzeba geniusza żeby zobaczyć gdzie to wszytko prowadzi graczy. A gracz chce grać w gry a nie kupować karty za 5-10 tys. bo są super do obliczeń.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To że ich karty mogą odpalić ai to niewiele zmienia. Po prostu i tak produkowaliby więcej kart do AI i mniej do grania windując ceny. Teraz część zapotrzebowania na AI spełniaj karty konsumenckie a tak byłaby potrzeba produkcji jeszcze większej ilości kart AI moim zdaniem. IMO to by nie znaczyło dużo tańszych kart do gier.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ogólnie cała masa produktów i usług poszła to the moon w ostatnich latach. GPU nie są tutaj jakimś wyjątkiem. Ceny mieszkań, telefonów, samochodów, żywności itd.

Wyobraźcie sobie, że w ~2000 roku w USA cena za Big Maca to było ~2.3-2.5 zielonego, dzisiaj ~$6. W Polsce ostatnio przewijały się w necie cenniki z 2003 roku BigMac niecałe 6pln wtedy kosztował, a dzisiaj  jakoś ~23pln :E

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Średnia cena paliw w 2003r - 3.37zł, najniższa krajowa 800zł. 😉

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Znowu się zrobił śmietnik "wszystko drogie kurła a GPU to wgl drogie kurła" :szczerbaty:

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja trochę rozumiem punkt widzenia @kadajo

My (jako gracze) dostajemy rykoszetem, że produkt głównego monopolisty który dostarcza co by nie mówić najlepsze karty, ma inne dodatkowe zastosowanie od pewnego czasu. I tak jak słusznie zauważył trzeba być niedowidzącym aby nie dostrzec pewnej korelacji zbiegnięcia się w czasie wzrostu zapotrzebowania pierw na szał związany z crypto, a teraz zapewne będzie to tłumaczenie na szał na AI. I wiadomo - szefunciowi w skórzanej kurteczce to lotto komu to sprzeda, bardziej się liczy to za ile i w jakiej ilości. A gracz jak chce sobie pograć w TOP CFG, no to musi liczyć się z tym, że będzie golony zdecydowanie mocniej niż kilka lat wcześniej.

Tylko czy można coś z tym zrobić? No nie... To bardziej jedynie po prostu wyrażenie niezadowolenia z takiego obrotu rzeczy i tyle. Przy braku realnej konkurencji (wg. Steam AMD ma coś około 14-15% rynku) to nVidia już wie, że nic nie musi.

Zostaje albo pohamowanie zapędów na 4k@240 FPS i siedzenie na LOW-MID CFG, lub konsola welcome, a jak ktoś chce mieć TOPkę to wyciągaj mamonę panocku drogi.

  • Like 1
  • Thanks 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"My gracze" to strasznie szerokie pojęcie. Tak naprawdę powinienes to zawęzić do "gracze-pasjonaci", którzy dziwnym trafem myślą że są czubkiem świata 😄

Edytowane przez bourne2008
  • Like 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszyscy dostają rykoszetem nie tylko entuzjaści.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale większości to nie obchodzi, kupują to na co ich stać i graja, nie jęczą że obosze wydałem 2000 zł i mam 50 FPS, bo nawet nie sprawdzają ile mają FPS xD

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak to nie:

Co chwile na forum widzę jakieś dziwne tematy.

Np. RTX 4090 zacina komputer :E

  • Haha 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Arqon85 napisał:

Tylko czy można coś z tym zrobić? No nie... To bardziej jedynie po prostu wyrażenie niezadowolenia z takiego obrotu rzeczy i tyle. Przy braku realnej konkurencji (wg. Steam AMD ma coś około 14-15% rynku) to nVidia już wie, że nic nie musi.

 

Kiedyś można było liczyć na to, że jak nie sprzedadzą GPU to obniżą ceny bo zaleganie na magazynie też kosztuje. A teraz jak nie sprzedadzą chipa graczom to sprzedadzą firmie AI więc "głosowanie portfelem" graczy niewiele da.

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A skąd wogóle pomysł, że AI trenuje się na desktopowych kartach dla graczy ;) Nie po to Nvidia sprzedała kosmiczne ilości chipów Hopper H100 (a za chwilę wejdzie Blackwell) żeby bawić się w takie drobne 🤑

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kogo było stać na H100 tego było stać.

Nie bez powodu USA zablokowała eksport RTX'a 4090 do Chin ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...