Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

GS01

NVIDIA RTX 40x0

Rekomendowane odpowiedzi

Napisano (edytowane)
2 godziny temu, caleb59 napisał:

Rozważałem rozkminę, że być może w ich pokrętnym toku myślenia te 16GB VRAM miało zachęcić bardziej do zakupu konkretnie 4060TI

Nie. Oni dali wersję 16GB, na skutek ogromnego niezadowolenia społeczności, że 4060Ti dostało śmieszne 8GB. Gdyby ta karta dostała na samym początku 12GB VRAM, to nie byłoby zupełnie tematu. Sądzę, że nawet przy 10GB VRAM w 4060Ti nie byłoby takiego rabanu (najwyżej kilka subtelnych bluzgów).

Edytowane przez Kyle_PL
  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Święta prawda mocium panie :]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
30 minut temu, musichunter1x napisał:

Jest bardzo dobra do AI i jest to najtańsza karta do takiego zastosowania z 16gb vramu.

Czy to... jest odpowiedź na zadane pytanie?
;)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
53 minuty temu, Vexis napisał:

Realia są takie, że jak ktoś chce grać w gierki na premierę to lepiej mieć więcej vram niż mnie i tyle w temacie.

W zasadzie jak ktoś gra w te wszystkie gnioty AAA premierowo i nie szkoda mu za nie płacić po 250-350 zeta to raczej i co generację zmienia gpu. 12GB styka obecnie w 4070, w 4080 styka 16gb itd.

A 4060 8GB, no cóż :E obecnie takie mamy czasy, że to w zasadzie najniższa półka jeśli chodzi o desktopowe gpu do grania od nvidii. Ktoś kto ją kupuję raczej liczy się z kompromisami i rocznie nie kupuję np. 8-10 gierek AAA premierowo, gdzie przy obecnych cenach gierek około 5 takich premierowych AAA przekracza już wartość tego GPU :E

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
1 godzinę temu, Kyle_PL napisał:

Nie. Oni dali wersję 16GB, na skutek ogromnego niezadowolenia społeczności, że 4060Ti dostało śmieszne 8GB. Gdyby ta karta dostała na samym początku 12GB VRAM, to nie byłoby zupełnie tematu. Sądzę, że nawet przy 10GB VRAM w 4060Ti nie byłoby takiego rabanu (najwyżej kilka subtelnych bluzgów).

Całej afery by nie było, gdyby 4090 był 4080, 4080 był 4070 z 16 GB a 4070 była by 4060 z 12 GB.

Niestety nvidia postanowiła zrobić z rdzenia x80 kartę x90 i niższe segmenty już poleciały lawinowo.

Pozwolę sobie wkleić obrazek z wątku o RTX5000 wrzuconego przez @Smogsmok

fe4203fa105561767cbccd52e567eac5fea90f3b

 

4090 to rdzeń klasy x80 na sterydach, powiedzmy 4080 Ti / Super.

Edytowane przez cichy45

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

W ogóle nVidia bez sensu te rdzenie skonfigurowała - nawet taki kurdupel jak 4060Ti ma część rdzenia wyłączoną (!!!). Nie wspominam o RTX 4090 (chyba jeszcze większy procent rdzenia jest OFF). No i stosunek VRAM do wydajności też nieoptymalny w przypadku niektórych modeli (RTX 4060Ti 8GB, RTX 4070Ti 12GB). Jednak konkurencja tak marna, że mogą robić takie fikołki, a i tak nikt im nie podskoczy.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AMD dało ciała z RDNA3 to Nvidia zaczęła sobie robić co chce. Pamiętajcie, że Nvidia nie projektowała AD106 pod 4060Ti, pierw projektują układ, a potem decydują jak go nazwać. Gdyby RDNA3 było o 30% szybsze (Navi31 +30%, Navi32 +30% itd) to prawdopodobnie chip z 4070 (46SM AD104) wleciał by po nazwą 4060Ti 12GB za 400$. 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 minut temu, cichy45 napisał:

Pozwolę sobie wkleić obrazek z wątku o RTX5000 wrzuconego przez @Smogsmok

Wiesz że ta tabelka jest lipna trochę. 

Jak wychodził G1080, na rynku nie było większego GPU.  GP104 miał 100 % rdzeni (nic nie cięte). Ale co nagle jak wyszło 1080 TI (na innym rdzeniu) to zmiana w tabelce 1080 = 67% of core ? Co nagle 1080 miała obcięte rdzenie ? 

Ta tabelka powinna pokazywać w % ucięty rdzeń od pełnego dla danego GPU.  Czyli 4080 to nie 53% of core tylko 90 % core ADA103. 

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

GP102 był w Titan X Pascal który wyszedł 2 miesiące po GTX 1080. 

Tabelka porównuje stosunek rdzeni do topowego układu danej serii. W 2016 Nvidia klepała AMD jak chciała (GTX 1080 vs RX 480 🤣) więc nie wypuszczali 1080Ti. 

 

 

 

 

Edytowane przez Smogsmok

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
40 minut temu, cichy45 napisał:

Całej afery by nie było, gdyby 4090 był 4080

Kto by wtedy kupił 4090 do grania gdyby była tylko kilka procent wydajniejsza od 4080 :E No nieliczni najwięksi napaleńcy. Podobnie jak było z Ampere 3090 nie miała sensu dla mnie i dla większości graczy, gdy 3080 była nie wiele mniej wydajna, a 10GB vram i tak stykało :E

Kolejna generacja może być z jeszcze większą dziurą wydajnościową pomiędzy 5080 a 5090. Konkurencji nie ma więc nvidia robi tak jak im się najbardziej kalkuluje.

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ci co kupili 3090 nadal by kupili ta troche wydajniejsza 4090 ;)  Tutaj nie ma znaczenia czy roznica wynosi 15% czy 40%, sa ludzie, kotrzy chca miec top i zapalca kazda cene. Jak 5090 jeszcze bardziej odleci to entuzjasci beda jeszcze bardziej napaleni na te karty i zapalca kazda cene, zeby miec ja w dniu premiery.

Nie ma zadnego zdrowego rozsadku w kupowaniu gpu za 10k do gier, nigdy go nie bylo i nie bedzie.

Ja sam osobiscie kupilem ost raz gpu za ok 6k, nie zaluje ale tak mało gram, ze bardziej przemawia chec posiadania i zabawy niz katowanie karty w grach.

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Pytanie czy 4090 rzeczywiście robi aż tak dużą różnicę względem 4080/4080S, biorąc pod uwagę fakt że kosztuje dwa raty tyle. Oczywiście sytuacja wyglądała inaczej na premierę zwykłej 4080, która była tragicznie wyceniona. Ale załóżmy że rozpatrujemy moment po zweryfikowaniu rzeczywistości przez rynek :E 

 

 

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Vexis napisał:

Realia są takie, że jak ktoś chce grać w gierki na premierę to lepiej mieć więcej vram niż mnie i tyle w temacie.

Do tego to przede wszystkim trzeba mieć szybkie GPU :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Isharoth napisał:

Pytanie czy 4090 rzeczywiście robi aż tak dużą różnicę względem 4080/4080S, biorąc pod uwagę fakt że kosztuje dwa raty tyle.

A nie robi? Różnica względem 4080-tki przepaść. Cena swoją drogą oczywiście.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Isharoth napisał:

Pytanie czy 4090 rzeczywiście robi aż tak dużą różnicę względem 4080/4080S, biorąc pod uwagę fakt że kosztuje dwa raty tyle. Oczywiście sytuacja wyglądała inaczej na premierę zwykłej 4080, która była tragicznie wyceniona. Ale załóżmy że rozpatrujemy moment po zweryfikowaniu rzeczywistości przez rynek :E

4090 tez potaniał ale moim zdaniem trzeba na to spojrzeć inaczej,
RTX 4090 to jedyna karta jeśli chcesz grac w 4k bez cięcia detali.

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patrzac na ten film wyzej to tak srednio 20fps-25fpa 4080 non S vs 4090. W 4k moze to byc roznica 60fps kontra 85fps, a to juz sporo bo dla mnie 60fps nie jest grywalne w zadnej grze. Ale nigdy tez bym nie dal z gpu 10k i kolo sie zamyka.

  • Haha 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, tomcug napisał:

A nie robi? Różnica względem 4080-tki przepaść. Cena swoją drogą oczywiście.

Moim zdaniem nie ma przepaści miedzy 4080 a 90, przepaść jest miedzy 90 a 70 Ti(S)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
10 minut temu, kadajo napisał:

Do tego to przede wszystkim trzeba mieć szybkie GPU :E

Nie trzeba. Znaczy trzeba mieć w miarę współczesne GPU... My na forum mamy mocno zakrzywiony obraz rzeczywistości. Tutaj są ludzie, którzy zmieniają karty co premierę i mają punkt widzenia 'entuzjasty', który kupuje sprzęt i gierki, żeby potem odpalić OSD z Afterburnera i testować. A teraz wróćmy na Ziemię i popatrzmy na naszych znajomych. U mnie nadal są ludzie którzy siedzą jeszcze na Maxwellach/Pascalach i 1080p. I nie skarżą się na problemy.

Nadążanie za technologią zawsze było tutaj drogie. Śmiem twierdzić że kiedyś pod tym względem było nawet gorzej, bo dziś przyrost wydajności z serii na serię GPU/CPU wygląda śmiesznie w porównaniu do tego co działo się 20 lat temu. Kiedyś kupiłeś topkę w ciągu kilku lat nie nadawało się to już do niczego. Dziś można przesiedzieć na jednej platformie przez długie lata i nadal w miarę komfortowo grać.

To nam się w tyłkach poprzewracało że musimy zawsze mieć >150fps w 1440p/4K na max detalach. To jest takie gonienie za króliczkiem, którego nigdy nie złapiemy. Kupowanie topowych GPU jest skrajnie nieopłacalne. I w sumie zawsze było. Kiedyś nawet bardziej.

Prawdziwym problemem dla przeciętnego konsumenta jest nie przepaść (rzekoma) między xx80 a xx90, a ogólny wzrost cen GPU z serii na serię. I dotyczy to zarówno Nvidii jak i AMD (które tak naprawdę dostosowuje się do tego co rzuci NV). Trzeba zrozumieć że twórcy gier nie są głupcami i nie będą tworzyć gier z wymaganiami którym większość rynku nie podoła. Mimo optymalizacyjnych potworków jak Starfield, każdemu raczej zależy żeby sprzedać swoje dzieła w jak największym nakładzie.

9 minut temu, tomcug napisał:

A nie robi? Różnica względem 4080-tki przepaść. Cena swoją drogą oczywiście.

Dlatego wrzuciłem filmik żeby każdy sam sobie ocenił czy opłaca mu się dopłacać 2x tyle. Może w 4K ma to większy sens. Ale ile osób gra w 4K? ;) 

6 minut temu, kadajo napisał:

4090 tez potaniał ale moim zdaniem trzeba na to spojrzeć inaczej,
RTX 4090 to jedyna karta jeśli chcesz grac w 4k bez cięcia detali.

Otóż to. Warto zadać sobie pytanie: dlaczego bez cięcia detali? ;)

Żeby było jasne. Nie twierdzę że obecna sytuacja jest ok. Ale jest całkowicie zrozumiała i nie widzę szans na poprawę. Tak wygląda monopol. AMD się poddało, a Intel zanim coś zdziała, to jeszcze sporo czasu upłynie.

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale skoro tak podejdziemy do tematu to nic nie stanowi problemy bo to kwestia dostosowania detali. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Wiem co sugerujesz, ale w sumie dlaczego nie? Przecież to jest najbardziej logiczne podejście. Pod pojęciem 'ultra' jeśli chodzi o detale w grze może kryć się dosłownie cokolwiek developer sobie wymarzy. I niekoniecznie może to być dostosowane do obecnego sprzętu i rozdzielczości 4K.

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Phoenix. napisał:

dla mnie 60fps nie jest grywalne w zadnej grze

W czterech literach się poprzewracało, kiedyś się grało w 20 FPS i musiało być :E A tak na poważnie, to bez przesady, 60 FPS jest w pełni grywalne.

  • Haha 1
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Toleruje 60fps na padzie ale ruch myszka przy 60fps wprawia mnie w dyskomfort i po prostu nie jest to dla mnie przyjemne, dopiero takie 90fps jest ok. Wiem, ze to kwestia przyzwyczajenia ale po prostu przy 60fps i szybkich ruchach myszka mam dziwny dyskomfort wzrokowy tak jakby mialo mi sie zaczac za chwile krecic w glowie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
2 godziny temu, Isharoth napisał:

Pytanie czy 4090 rzeczywiście robi aż tak dużą różnicę względem 4080/4080S, biorąc pod uwagę fakt że kosztuje dwa raty tyle.

Kwestia ceny jest na pewno kontrowersyjna :E
Ja kupowałem dosłownie kapkę po premierze różnice wtedy nie były tak drastyczne jak dziś, 4080 wtedy kosztował 6.5k+, a RTX 4090 wyrwałem za 9k z małym hakiem.(edit tak mi się przypomniało @hubio gdzie te rtxy 4090 po 5-6k? już drugie lato leci, a nvidia dalej jak widzisz nie spuszcza z tonu :E)

Obecnie na 4090 czuję się na tyle pewnie, że jak 5090 nie pokaże ostrego pazura i boosta to na luzaku przy tym co gram przeciągnę na nim kolejne 2 lata do następnej generacji.

Na 4080 nie byłoby już tak kolorowo dla mnie jak gram w 4k. Nie jestem niewolnikiem ultra, potrafię zluzować detale, użyć DLSS itd. No, ale masz jeden z ostatnich testów na ppc. Oczywiście co gra, co miejscówka różnice będą różne. No, ale są zawsze na widoczny plus dla 4090.

K4UmL4Z.png

~38% przewagi rtx 4090 nad 4080 w 4k w tej grze.  W większości gier będzie mi zdecydowanie łatwiej osiągnąć fajniejszy fps względem 4080 jeśli nie zdecyduję się na przesiadkę na 5090. A co się nagrałem przez ostatnie 1.5 roku i nagram jeszcze dalej na tej karcie przynajmniej do kolejnej premiery, albo i dłużej jak się nie przesiądę to moje 🤗

Edytowane przez lukadd
  • Like 1
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, *** ChOpLaCz *** napisał:

Czy to... jest odpowiedź na zadane pytanie?
;)

Po części tak ;) Z tego samego względu rtx3060 12gb jest nadal produkowany, ponieważ to jedna z lepszych, tanich kart do pracy oraz AI.
Jak tylko zobaczyłem rtx4060 16gb to wiedziałem, że dużo na wartości nie straci, ponieważ nie ma nic innego dla domowego AI, co by nie kosztowało więcej, niż cały komputer. Następna taka karta to rtx4080 oraz od niedawna 4070ti super

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się

Komentowanie zawartości tej strony możliwe jest po zalogowaniu



Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...