Skocz do zawartości

Rekomendowane odpowiedzi

36 minut temu, lukadd napisał:

To znaczy zabawa w kręcenie wyników w benchmarkach. Przecież nikt normalny na codzień do grania nie będzie odkręcał limitów na 600W dla kilu % czy nawet ~10% wydajności tylko będzie siedział na optymalnych nastawach po UV. 

Zobaczymy jak to będzie w rzeczywistości w niereferentach. Dlaczego mieliby trzymać kaganiec na 450W, przecież będą walczyli o wydajność, żeby to ich karty lepiej się sprzedawały niz konkurencji. Jak inaczej osiągną odpowiednie wzrosty wydajności, w stosunku do starej generacji? 

RTX3060Ti ma wg Nvidii TDP na poziomie 200W, a sporo modeli w tym mój ma fabrycznie 240-250W. To jest 20-25% więcej niż podaje nvidia, więc RTX4090 te 550W w niereferentach będzie pewnie czymś  często spotykanym.

  • Sad 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, xtn napisał:

Zobaczymy jak to będzie w rzeczywistości w niereferentach. Dlaczego mieliby trzymać kaganiec na 450W, przecież będą walczyli o wydajność, żeby to ich karty lepiej się sprzedawały niz konkurencji. Jak inaczej osiągną odpowiednie wzrosty wydajności, w stosunku do starej generacji? 

RTX3060Ti ma wg Nvidii TDP na poziomie 200W, a sporo modeli w tym mój ma fabrycznie 240-250W. To jest 20-25% więcej niż podaje nvidia, więc RTX4090 te 550W w niereferentach będzie pewnie czymś  często spotykanym.

Dalej beda przelaczniki BIOSu na kartach, takze bedzie to mialo moze jakis wiekszy sens niz w serii 30. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, wincyjognia napisał:

Dalej beda przelaczniki BIOSu na kartach, takze bedzie to mialo moze jakis wiekszy sens niz w serii 30. 

Może i będą ale wyniki będą podawali z poborem na maxa, a nie z ograniczeniem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na powietrzu to będą mieli problem te stock 450w utrzymać, a i tak już słyszę jak to będzie wyło na wentylach :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, SebastianFM napisał:

Na filmie Digital Foundry jest 5 sekundowe porównanie RTX 3090 Ti i RTX 4090 w Cyberpunk 2077 w 4K bez użycia DLSS na maksymalnych ustawieniach z Psycho RT.
Policzyłem ilość klatek animacji. RTX 4090 osiąga 38 FPS a RTX 3090 Ti 21,5 FPS.

Mniej więcej by sie zgadzalo, czyli jak tempo rozwoju sie utrzyma to natywne 4k w psycho dostaniemy w 5090, a ten lepszy overdrive w 6090 ; )

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, lukadd napisał:

Na powietrzu to będą mieli problem te stock 450w utrzymać, a i tak już słyszę jak to będzie wyło na wentylach :E

Też mam pewne obawy ale może radiatory na 4 sloty i długości kart 35+ cos tutaj pomogą. Ogólnie wygląda tak jakby ktos potrafił zmienic prawa fizyki :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, lukadd napisał:

Na powietrzu to będą mieli problem te stock 450w utrzymać, a i tak już słyszę jak to będzie wyło na wentylach :E

Dlatego do momentu wprowadzenia jakiegoś przełomowego rozwiązania woda to przyszłość. W przypadku mainstream'u AiO sprawdza się doskonale co pokazała choćby poprzednia generacja. 

Edytowane przez Fenrir_14
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, lukadd napisał:

Na powietrzu to będą mieli problem te stock 450w utrzymać, a i tak już słyszę jak to będzie wyło na wentylach :E

Jakoś suprim nie miał problemu z 3090ti a chłodzenia w 4090 sa dużo większe wiec tak bym nie dramatyzował z tymi chlodzeniami bo spokojnie 450W da się schłodzić na powietrzu. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest jednak szansa :hmm:

https://www.eurogamer.pl/dlss-3-moze-zadzialac-tez-na-starszych-kartach-nvidia-rtx

20 minut temu, Zhao napisał:

Prawda jest taka,że próg bólu dla większości  to cena jest hamulcem  jeśli takie 4080 16GB kosztowałoby te 4500~~ to nie byłoby  tematu tylko każdy by skakał z radości :Dnawet z wysokim poborem prądu bo  90% tu by zrobiło i tak UV 

Dokładnie tak 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
36 minut temu, dawidoxx napisał:

No ale jak to przecież kable to kable.. czemu bedzie drożej :rotfl: :E wg większości pclabowej powinno być taniej!! 

 

Tanio to już było :P.

Wykonanie tych kabli wymaga specjalnego oplotu i przewodu z bardzo cienką izolacją, a to kosztuję jakieś x2 względem zwykłych materiałów, które używam do normalnych wiązek (one też już swoje kosztują, bo wszystko jest wysokiej jakości; chińszczyzny nie używam). Sama robota też jest mega upierdliwa i wymaga precyzji z dokładnością do 0,5mm, więc robocizna też idzie w górę :P.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, Phoenixsuple napisał:

Jakoś suprim nie miał problemu z 3090ti a chłodzenia w 4090 sa dużo większe wiec tak bym nie dramatyzował z tymi chlodzeniami bo spokojnie 450W da się schłodzić na powietrzu. 

A wentylatory też nie są czasami teraz większe :hmm:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Kynareth napisał:

Albo zobaczcie sobie to:

Do grania w Quake 1 w 1280x1024 w 50 fps potrzeba przynajmniej Pentium 4 3,6 GHz lub Athlon 64 3400+. Pentium 200 MHz robi jedynie 46,5 fps320x200! Ale wtedy było. Nowy komputer ledwo sobie radził. Aż trudno w to uwierzyć.

Wystarczy VooDoo2 

4 minuty temu, zawisztheblack napisał:

Tanio to już było :P.

Wykonanie tych kabli wymaga specjalnego oplotu i przewodu z bardzo cienką izolacją, a to kosztuję jakieś x2 względem zwykłych materiałów, które używam do normalnych wiązek (one też już swoje kosztują, bo wszystko jest wysokiej jakości; chińszczyzny nie używam). Sama robota też jest mega upierdliwa i wymaga precyzji z dokładnością do 0,5mm, więc robocizna też idzie w górę :P.

Dla tego amatorskie grzebanie we wtyczkach 12pin może skończyć się problemami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, Minciu napisał:

Dla tego amatorskie grzebanie we wtyczkach 12pin może skończyć się problemami.

Dokładnie, tutaj nie ma żartów. Wszystko musi być bardzo dobrze i przemyślanie wykonane, bo inaczej stopisz sobie wtyczki - albo do strony GPU jak coś będzie źle zaciśnięte / źle wpięte lub od strony PSU, ale to temat na osobną rozmowę.

Edytowane przez zawisztheblack

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Kynareth napisał:

RDNA 3 będzie opłacalniejsze i tańsze, bo użyje MCM.

Nie byłbym taki pewien, że to takie tanie rozwiązanie. 384MB L3 + interposer ;)

Równie dobrze ktoś może zadać pytanie czemu NV zapakowała tyle L2 zamiast zastosować szybsze pamięci i ewentualnie szerszą szynę ;)

2 godziny temu, darkmartin napisał:

Pan co zjadł wszystkie rozumy?

Dałem Ci w delikatny sposób do zrozumienia żebyś nie opowiadał bzdur ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, Minciu napisał:

Wystarczy VooDoo2

Wtedy VooDoo2 12 MB kosztowało 299 USD, miało szynę 192-bit i pobór energii 15 wat. Porównajcie z 4080 12GB z TDP 285 wat. Sama inflacja podnosi cenę do 543,28 USD ale jest 899.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja to pamiętam, że 2-3 miesiące po premierze gtx 970 kosztował w sklepie 1400zł.
gtx 1070 też 2-3 miesiące po premierze kosztował 1850zł
teraz rtx 4080 12GB czyli farbowany rtx 4070 ma kosztować 5300zł.
Do tego pobór mocy wzrósł prawie dwukrotnie.

No i ponawiam pytanie czy w najbliższym czasie są planowane jakieś gry killery graficzne żeby ten sprzęt wykorzystać?

Edytowane przez Keken
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
24 minuty temu, sideband napisał:

Dałem Ci w delikatny sposób do zrozumienia żebyś nie opowiadał bzdur ;)

 

Czemu nVidia stosują małą szynę. Bo jej nie potrzebują, ponieważ 4K ma być robione przez upscaling.

Promowant DLSS jest upsalingiem. Można renderować w niskich rozdzielczościach, nie potrzebujemy ani dużej ilości pamięci ani szerokiej szyny.

Wystarczy popatrzeć w specyfikacje i co tam widać. Mało RAM i wąska szyna.

A wydajność ma zapeniac DLSS czyli upscaling

Edytowane przez darkmartin
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i mamy informacje o wielkości chipów :D
192bitowa 4060tka zwana 4080 12GB to
Die size: 294.5mm2

GTX 660: 221 mm² (zanim ktoś powie, że w takim razie mniej, to ja odbiję - a kto kazał NV pakować rzeczy nie do gier do środka? Gracza się zmusza aby za to dopłacał
cena na start MSRP: 229$
GTX 960:  228 mm2, 199$ MSRP
GTX 1060: 200 mm2, 199$ MSRP 
RTX 2060 445 mm2, 350$ MSRP (o 50% większy), a cena...


 

Do tego jest info, że te 96MB cache zajmuje zaledwie 5mld tranzystorów. 
Zaznaczę, że wiem, że cache to nie takie same tranzystory co reszta, że wiem, że to się gorzej skaluje, że bierze sporo prądu itp. itd. Ja to wszystko wiem. Tylko mimo to chciałbym zauważyć, jak Nvidia mogła to dać w 20xx a daje teraz, bo zamiast w wydajność rasteryzacji to idą w nongaming typu RT/AI itp. a jeszcze debile z Digital Foundry przyklaskują, że inaczej się nie da. AMD pokazało, że 128MB cache'u robi różnicę. Przy 35mld tranzystorów nawet 10mld mogło się zmieścić i zrobić różnicę, a pewnie cały ten zbędny balast nie zajmował mniej. 

Ktoś kiedyś zrobi GPU do VR poprawnie i ludziom szczęki na ziemię pospadają, jak chip o wielkości 10% układów high-end w PC osiągnie lepsze wyniki od tych monstrów ala 4090, w przypadku renderowania forward, 8K, 120fps i MSAAx4.


Koszt wafla to argument śmieszny tym bardziej, jeśli możnaby wywalić balast i zrobić chip o wielkości 150mm2 szybszy od 4080 12GB. (Przypomnę: gtx 580 to 520mm2 i cena 499 na premierę) W tym do czego się przydaje. W grach. W grach robionych niestety już TYLKO pod konsole, które do RT się nie nadają. Zanim się zaczną nadawać to minie 3-7 lat. A wtedy jeszcze minie kilka zanim producenci gier się przestawią tak jak teraz nie chcieli odcinać się od pastgenów i przez dwa lata 99% gier jest pod Xone/PS4 z 2013r. 
No ale można olać rasteryzację i powiedzieć ustami speców z DF, że postęp  w rasteryzacji jest niemożliwy, niepotrzebny, a AI to przyszłość. 

 

4 godziny temu, Kynareth napisał:

Ale to nic nowego, że gry pod stare konsole ciężko wymaksować na wiele nowszych kartach. Mój 1060 6GB nie daje rady Tomb Raider Underworld uciągnąć w stabilnych 60 fps na Ultra w 4K. A to przecież gra z 2008 pod PlayStation 2 jeszcze.

Właśnie o to mi chodzi. Postęp idzie nie w to, co trzeba. Masz tyle goemetrii i tekstur co na Xbox 1, a karta będąca na równi z high-endem z powiedzmy przełomu roku 2014 i 2015, nie daje rady w 4K tego pociągnąć. To znaczy, że albo jak sugerujesz, zapewne słusznie, że dowaliło się za duże obciązenie na shadery, a "długie" shadery nie pomagają, bo co z tego, że masz na jeden 10x lepszą wydajność, jak lepszy efekt byłby jakbyś miał 2x więcej krótkich (czyli głównych) albo karty bezsensownie wolno idą do przodu w tym co ważne w mojej niepopularnej opinii (piksele i geometria)
 

Cytat

Do grania w Quake 1 w 1280x1024 w 50 fps potrzeba przynajmniej Pentium 4 3,6 GHz lub Athlon 64 3400+. Pentium 200 MHz robi jedynie 46,5 fps 320x200! Ale wtedy było. Nowy komputer ledwo sobie radził. Aż trudno w to uwierzyć.

to jest offtop, to zwijam w spojler

 

Ale wtedy się nie grało w 1280x1024, bo to jakbyś dzisiaj testował w 16K. W sumie to bardziej jak w 24K nawet.


W Quake'a grało się z tego co pamiętam zazwyczaj w 400x300 dla pełnej płynności. Biedniejsi w 320x240, a biedni w ogóle, bo niektórzy ledwo na 486 wtedy uzbierali, a na tym, to nie dało się grać, bo trzeba było Pentium ;)
W 640x480 grać to trochę jak dziś 4K czy 6K. 
Z testami na youtube to radzę uważać, bo robią je ludzie, którzy albo nie mają pojęcia o graniu w połowie lat 90tych, albo po prostu zapomnieli.
Na przykład
- test Turoka i mówienie, że gra nigdy nie działała dobrze na niczym, bo on wie, bo grał i pamięta - a ja grałem w 512x384 zamiast w 640x480 i pamiętam jak miałem idealnie płynnie. Tylko, że ja pamiętam też, że się używało odpowiednich sterowników pod kartę, grało na sprzęcie pod który była optymalizacja, a nie na sprzęcie wydanym później, no i uruchamiało pod GLIDE na VooDoo a nie DX
- pokazywanie jak się gra dławi na 386DX 40, a mi na SX się nie dławiła. Pokazywanie jak na 486 DX2 chodzi ledwo ledwo, a ja grałem spokojnie na wolniejszym i miałem 2x tyle klatek. A jak? Ano tak, że się nie odpalało gry pod DOS spod pseudo DOSa (pamięta ktoś jeszcze różnicę między windows DOS a odpaleniem kompa na czysto do dosa bezpośrednio? No właśnie. Już ludzie pozapominali, bo jako laicy myśleli wtedy, że nie ma różnicy. A była. Do tego wtedy się odpalało "akcelerację 2D" karty graficznej (o dziwo przydatne także w grach pseudo 3D ;) poprzez odpalenie sterownika VESA. Tak, odpalało się w DOS polecenie i nagle w Duke Nukem gra zapier...niczała 2x lepiej, albo tak samo w 400x300 jak bez tego w 320x240. No patrz pan, magia. 
Do tego pamięci i jej ustawienia. Jak się dawało CL1 to było szybciej niż CL2. Analogicznie CL2 vs. 3. Do tego szybkość tych pamięci, ich konfig. Tak samo jak w obecnych czasach. Różnice są, a laicy nie mają o nich pojęcia jak one są duże. Wtedy też były. Na koniec chipset. Jak testujesz Pentium 200 na płycie opartej o budżetowego SiSa, to cię gość z koniem (Pentium 90) wyprzedza .:D 

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Keken napisał:

Ja to pamiętam, że 2-3 miesiące po premierze gtx 970 kosztował w sklepie 1400zł.
gtx 1070 też 2-3 miesiące po premierze kosztował 1850zł
teraz rtx 3080 12GB czyli farbowany rtx 3070 ma kosztować 5300zł.
Do tego pobór mocy wzrósł prawie dwukrotnie.

No i ponawiam pytanie czy w najbliższym czasie są planowane jakieś gry killery graficzne żeby ten sprzęt wykorzystać?

Pamiętam jak brałem właśnie 970 na premierę GTA5 na pc i nie dosyć, że było tanio bo tak jak piszesz dałem 1400zł za GB G1 gaming oc to i jeszcze była jakaś konkretna gra do tego. Teraz szczerzę nie widzę żadnej co mnie interesuje i miałaby sprawiać jakieś problemy na moim sprzęcie. Wyjdą jakieś konkretne gry to i o karcie się pomyśli, bo grać tak jak teraz gram w Motorsport managera, Fallouta 4 i Forzę 5 to to co mam jest grubo aż nadto.

edit. 5300 to jest sugerowana cena tak jak sugerowana za 16gb jest ponad 7k a ktoś tu już pisał, że w sklepach ok 8500 także pewnie realnie tej 4070 poniżej 6k nie będzie.

Edytowane przez KamcioGF
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, darkmartin napisał:

 

Czemu nVidia stosują małą szynę. Bo jej nie potrzebują, ponieważ 4K ma być robione przez upscaling.

Promowant DLSS jest upsalingiem. Można renderować w niskich rozdzielczościach, nie potrzebujemy ani dużej ilości pamięci ani szerokiej szyny.

Wystarczy popatrzeć w specyfikacje i co tam widać. Mało RAM i wąska szyna.

A wydajność ma zapeniac DLSS czyli upscaling

DLSS tez potrzebuje pamięci. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, kadajo napisał:

DLSS tez potrzebuje pamięci. ;)

No ale zużycie będzie dużo mniejsze niż natywka, jakby nie patrzeć.

W sumie taka wąska szyna (chociaż kaszy dolożyli to zniweluje ten minus) i malo pamięci to dobre ficzery na przyszłość  do sybszego postarzania.

To już wiadomo co AMD będzie sugerować partnerom (Capcom, Bethesda ?) aby konkurencja miała gorzej.

Tak jak przy WD Legion i FC6 paczki Hi-resowe aby Vram nie mial za lekko, skoro konkurencja ma mniej tego zasobu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RTX 3070 ma 256bit szyne ale zwykle DDR6. Dopiero RTX 3070Ti dostał DDR6X ale i tak mu to za bardzo nie pomoglo bo GPU był zbyt pocięty.

Trzeba czekać na testy. Aby RTX 4080 12G aka RTX 4070 był coś warty musiałby pokonać już na stracie RTX 3090/Ti a wszystko wskazuje na to ze tak się nie stanie.

Oczywiście nie patrząc na ceny bo ceny powodują ze cala seria 4xxx jest kompletnie nieopłacalna i psująca rynek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, darkmartin napisał:

Przy tym samym taktowaniu i takiej samej liczbie rdzeni cuda będzie wolniej bo jest węższa magistrala pamięci.

21 minut temu, darkmartin napisał:

Czemu szyna stosują małą szynę. Bo jej nie potrzebują ponieważ 4K ma być robione przez upscaling.

Promowant DLSS jest upsalingiem. Można renderować w niskich rozdzielczościach, nie potrzebujemy ani dużej ilości pamięci ani szerokiej szyny.

Wystarczy popatrzeć w specyfikacje i co tam widać. Mało RAM i wąska szyna.

A wydajność ma zapeniac DLSS czyli upscaling

Opowiadasz bzdury.

Po pierwsze w Turing i Ampere przepustowość pamięci jest w większości przypadków na wyrost. Można to prosto sprawdzić, zmieniając częstotliwość pamięci np. o 20%. Szybka pamięć przydaje się podczas śledzenia promieni, ponieważ sąsiednie promienie są puszczane w różnych kierunkach, trafiają w zupełnie różne miejsca i wymaga to dużej ilości odczytów z pamięci.

Najlepszym przykładem jest właśnie RX 6900 XT, który ma szynę 256 bit zamiast 384 bit i prawie o połowę mniejszą przepustowość pamięci niż RTX 3090. Różnica w wydajności w grach wynosi średnio 10% i nie ważne czy w 1080p czy 4K.

Edytowane przez SebastianFM
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
52 minuty temu, zawisztheblack napisał:

Tanio to już było :P.

Wykonanie tych kabli wymaga specjalnego oplotu i przewodu z bardzo cienką izolacją, a to kosztuję jakieś x2 względem zwykłych materiałów, które używam do normalnych wiązek (one też już swoje kosztują, bo wszystko jest wysokiej jakości; chińszczyzny nie używam). Sama robota też jest mega upierdliwa i wymaga precyzji z dokładnością do 0,5mm, więc robocizna też idzie w górę :P.

Nie no napisałem to w żarcie w nawiazaniu do tego ciagłego lamentu.

Zdaję sobie sprawę że jakość kosztuje a i koszta produkcji, oraz material nie idzie w dół  :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...